Реферат: Математична обробка результатів вимірів
--PAGE_BREAK--Немає сумніву, що ряд розподілу чи багатокутник розподілу можна подати для дискретної випадкової величини з кінцевим числом можливих значень. Однак ряд розподілу не можна побудувати для неперервної випадкової величини, що має незчисленну безліч можливих значень, які суцільно заповнюють деякий відрізок. Перелічити таку безліч значень випадкової величини практично неможливо. Проте, треба мати таку характеристику розподілу ймовірностей, яка б відображала як дискретні, так і неперервні випадкові величини. Нею є функція розподілу.Функцією розподілу або інтегральним законом розподілу випадкової величини X називається задання ймовірності події виконання нерівності X < х, де х — деяка поточна змінна, її розглядають як функцію аргументу х і визначають за формулою
F(x) = P(X<x)
Функцію розподілу F(х) називають інтегральною функцією розподілу або інтегральним законом розподілу. Вона має досить просту геометричну інтерпретацію. Розглянемо випадкову величину, як випадкову точку X осі ОХ, що в результаті випробування може прийняти те чи інше положення. Тоді функція розподілу F(х) є ймовірністю того, що випадкова точка X в результаті випробування попаде зліва від точки х.
Функція дискретної випадкової величини X, що може приймати значення Х1, Х2,…, xn буде мати вигляд
<shape id="_x0000_i1192" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image310.wmz» o:><img width=«137» height=«39» src=«dopb206505.zip» v:shapes="_x0000_i1192">
При цьому додавання ймовірностей розповсюджується на всі можливі значення випадкової-величини, які за своєю величиною менші аргументу х. Це означає, що функція розподілу дискретної випадкової величини X розривна і зростає стрибками при переході через точки можливих її значень Х1, Х2,…, хn.
Оскільки функція розподілу дискретної випадкової величини виглядає як сходинкова ламана лінія, тому її називають сходинковим графіком.
Якщо випадкова величина неперервна, то вона має ймовірність в кожній точці осі х. Згідно з формулою функція розподілу буде зростати поступово, тому що можливі значення випадкової величини неперервно заповнюють будь-який інтервал на осі х. Тоді графік виглядатиме як монотонне зростаюча функція розподілу F(х) на інтервалі від а до b.
Функція розподілу має властивості:
1. Функція розподілу F(х) є зростаючою і міститься між нулем та одиницею 0 < F(х) < 1.
Це випливає з того, що функція F(х) визначається як імовірність випадкової події X < х.
2. Ймовірність виникнення випадкової величини в інтервалі від <shape id="_x0000_i1193" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image312.wmz» o:><img width=«16» height=«15» src=«dopb206506.zip» v:shapes="_x0000_i1193"> до <shape id="_x0000_i1194" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image314.wmz» o:><img width=«16» height=«21» src=«dopb206372.zip» v:shapes="_x0000_i1194"> дорівнює різниці значень функції на кінцях інтервалу
<shape id="_x0000_i1195" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image315.wmz» o:><img width=«191» height=«21» src=«dopb206507.zip» v:shapes="_x0000_i1195">
Визначимо подію А того, що випадкова величина х < <shape id="_x0000_i1196" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image317.wmz» o:><img width=«16» height=«15» src=«dopb206506.zip» v:shapes="_x0000_i1196"> та подію В для випадку х < <shape id="_x0000_i1197" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image318.wmz» o:><img width=«16» height=«21» src=«dopb206372.zip» v:shapes="_x0000_i1197">.
Подія С відображає те, що <shape id="_x0000_i1198" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image319.wmz» o:><img width=«16» height=«15» src=«dopb206506.zip» v:shapes="_x0000_i1198"> < х < <shape id="_x0000_i1199" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image320.wmz» o:><img width=«16» height=«21» src=«dopb206372.zip» v:shapes="_x0000_i1199">. В цьому випадку подія В буде складатися із суми двох несумісних подій А і С, тобто В = А + С. Згідно з теоремою додавання ймовірностей маємо
P (B) = P(A) + P(C)
Якщо функція в точці <shape id="_x0000_i1200" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image321.wmz» o:><img width=«16» height=«15» src=«dopb206506.zip» v:shapes="_x0000_i1200"> неперервна, то граничне значення дорівнює нулю. При розриві функції в точці (X її граничне значення буде дорівнювати значенню стрибка функції F (х).
З цього робимо висновок, що ймовірність випадкової величини в точці для неперервної функції дорівнює нулю. Це явище називають парадоксом теорії ймовірностей.
Проте нульова ймовірність події лише зазначає, що частота цієї події невпинно спадає при збільшенні числа дослідів, однак це не означає, що ця подія неможлива.
3. Функція розподілу випадкової величини є зростаючою функцією, тобто при <shape id="_x0000_i1201" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image322.wmz» o:><img width=«16» height=«21» src=«dopb206372.zip» v:shapes="_x0000_i1201"> > <shape id="_x0000_i1202" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image323.wmz» o:><img width=«16» height=«15» src=«dopb206506.zip» v:shapes="_x0000_i1202">
<shape id="_x0000_i1203" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image324.wmz» o:><img width=«91» height=«21» src=«dopb206508.zip» v:shapes="_x0000_i1203">
Маємо <shape id="_x0000_i1204" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image326.wmz» o:><img width=«192» height=«21» src=«dopb206509.zip» v:shapes="_x0000_i1204">
Так як імовірність будь-якої події є додатне число, то <shape id="_x0000_i1205" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image328.wmz» o:><img width=«119» height=«21» src=«dopb206510.zip» v:shapes="_x0000_i1205">
3. На мінус нескінченності функція розподілу дорівнює нулю, а на плюс нескінченності — одиниці, тобто <shape id="_x0000_i1206" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image330.wmz» o:><img width=«77» height=«21» src=«dopb206511.zip» v:shapes="_x0000_i1206"> <shape id="_x0000_i1207" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image332.wmz» o:><img width=«75» height=«21» src=«dopb206512.zip» v:shapes="_x0000_i1207">
Це цілком вірно, так як при необмеженому переміщенні точки х вліво, попадання випадкової точки X лівіше х максимально стає неможливою подією і <shape id="_x0000_i1208" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image334.wmz» o:><img width=«73» height=«21» src=«dopb206513.zip» v:shapes="_x0000_i1208"> = 0. В той же час при необмеженому переміщенні точки х вправо попадання випадкової точки X зліва від х практично стає достовірною подією, тоді <shape id="_x0000_i1209" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image336.wmz» o:><img width=«73» height=«21» src=«dopb206514.zip» v:shapes="_x0000_i1209"> = 1.
За допомогою функції розподілу можна знайти ймовірність випадкової величини в будь-якому інтервалі або в кожній точці можливих значень для дискретної випадкової величини. Тому функція розподілу однозначно визначає закон розподілу випадкової величини.
Більш наочно характер розподілу неперервної випадкової величини в невеликих інтервалах числової осі х дає функція щільності розподілу ймовірностей або диференціальний закон розподілу.
Якщо маємо функцію розподілу F(х) випадкової величини X, то ймовірність попадання її на елементарну ділянку (х, х + <shape id="_x0000_i1210" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image338.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1210">х) згідно з попередньою формулою буде:
<shape id="_x0000_i1211" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image339.wmz» o:><img width=«237» height=«21» src=«dopb206515.zip» v:shapes="_x0000_i1211">
Знайдемо середню ймовірність, що припадає на одиницю довжини ділянки <shape id="_x0000_i1212" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image341.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1212">х
<shape id="_x0000_i1213" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image342.wmz» o:><img width=«256» height=«41» src=«dopb206516.zip» v:shapes="_x0000_i1213">
Функцією щільності розподілу випадкової величини в точці х є граничне відношення ймовірності попадання її на елементарну ділянку від х до х + <shape id="_x0000_i1214" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image344.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1214">х до довжини цієї ділянки <shape id="_x0000_i1215" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image345.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1215">х, коли <shape id="_x0000_i1216" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image346.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1216">х наближається до нуля.
Її позначають <shape id="_x0000_i1217" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image347.wmz» o:><img width=«36» height=«21» src=«dopb206517.zip» v:shapes="_x0000_i1217">або (х). Зміст функції щільності розподілу <shape id="_x0000_i1218" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image349.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1218">(х) полягає в тому, що вона вказує, як часто з'являється випадкова величина X навколо точки х при повторенні дослідів.
Функція щільності розподілу має властивості:
1. Щільність розподілу невід'ємна, тобто <shape id="_x0000_i1219" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image351.wmz» o:><img width=«61» height=«21» src=«dopb206519.zip» v:shapes="_x0000_i1219">
2. Функція розподілу випадкової величини дорівнює інтегралу від функції щільності в інтервалі від — <shape id="_x0000_i1220" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image353.wmz» o:><img width=«16» height=«13» src=«dopb206520.zip» v:shapes="_x0000_i1220"> до х <shape id="_x0000_i1221" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image355.wmz» o:><img width=«111» height=«49» src=«dopb206521.zip» v:shapes="_x0000_i1221">
3. Ймовірність попадання неперервної випадкової величини X на відрізку (<shape id="_x0000_i1222" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image357.wmz» o:><img width=«33» height=«21» src=«dopb206522.zip» v:shapes="_x0000_i1222">) дорівнює інтегралу від функції щільності розподілу, взятому за кінцевими значеннями цього відрізка
<shape id="_x0000_i1223" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image359.wmz» o:><img width=«163» height=«51» src=«dopb206523.zip» v:shapes="_x0000_i1223">
Геометричний зміст цього результату полягає в тому, що ймовірність появи випадкової величини в інтервалі від <shape id="_x0000_i1224" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image361.wmz» o:><img width=«16» height=«15» src=«dopb206506.zip» v:shapes="_x0000_i1224"> до <shape id="_x0000_i1225" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image362.wmz» o:><img width=«16» height=«21» src=«dopb206372.zip» v:shapes="_x0000_i1225"> дорівнює площі криволінійної трапеції.
4. Інтеграл в нескінченних межах від — <shape id="_x0000_i1226" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image363.wmz» o:><img width=«16» height=«13» src=«dopb206520.zip» v:shapes="_x0000_i1226"> до + <shape id="_x0000_i1227" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image364.wmz» o:><img width=«16» height=«13» src=«dopb206520.zip» v:shapes="_x0000_i1227"> дорівнює одиниці
<shape id="_x0000_i1228" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image365.wmz» o:><img width=«84» height=«49» src=«dopb206524.zip» v:shapes="_x0000_i1228">
Ймовірність попадання випадкової величини X на елементарний інтервал dx з точністю до нескінченно малих вищого порядку чим <shape id="_x0000_i1229" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image367.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1229">х дорівнює <shape id="_x0000_i1230" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image368.wmz» o:><img width=«13» height=«21» src=«dopb206525.zip» v:shapes="_x0000_i1230">(х) dх, (так як <shape id="_x0000_i1231" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image370.wmz» o:><img width=«164» height=«21» src=«dopb206526.zip» v:shapes="_x0000_i1231">). Геометричний зміст цього виявляється в тому, що це є площа елементарного прямокутника з висотою <shape id="_x0000_i1232" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image372.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1232">(х) і основою dх. Величина <shape id="_x0000_i1233" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image373.wmz» o:><img width=«49» height=«21» src=«dopb206527.zip» v:shapes="_x0000_i1233"> називається елементом імовірності.
3. Числові характеристики випадкових величин
Закон розподілу повністю характеризує випадкову величину з точки зору ймовірності її появи в будь-якому інтервалі числової осі 0х. Разом з тим при вирішенні великої кількості практичних задач достатньо знати тільки деякі характерні риси закону розподілу. В теорії ймовірностей їх називають числовими характеристиками випадкової величини X. Вони в досить стислому вигляді характеризують той чи інший закон розподілу.
Властивості випадкової величини X характеризують параметри: математичне сподівання, мода, медіана, дисперсія, середнє квадратичне відхилення та стандарт. Більш узагальненими основними характеристиками випадкових величин є моменти випадкової величини.
1) Математичне сподівання
Якщо дискретна випадкова величина X володіє можливими значеннями х1, Х2,..., хn з імовірностями p1,p2, pn то математичне сподівання випадкової величини X визначається за формулою
<shape id="_x0000_i1234" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image375.wmz» o:><img width=«295» height=«45» src=«dopb206528.zip» v:shapes="_x0000_i1234">
де <shape id="_x0000_i1235" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image377.wmz» o:><img width=«75» height=«45» src=«dopb206529.zip» v:shapes="_x0000_i1235"> , так як поява однієї із можливих подій є достовірна подія.
Якщо випадкова величина X має нескінченне число можливих значень, то
<shape id="_x0000_i1236" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image379.wmz» o:><img width=«92» height=«45» src=«dopb206530.zip» v:shapes="_x0000_i1236">
Математичним сподіванням випадкової величини X називається сума добутку всіх можливих значень випадкової величини на ймовірності цих значень.
Математичним сподіванням неперервної випадкової величини X, можливі значення якої належать відрізку [а, в], називають визначений інтеграл <shape id="_x0000_i1237" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image381.wmz» o:><img width=«108» height=«51» src=«dopb206531.zip» v:shapes="_x0000_i1237">
а де <shape id="_x0000_i1238" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image383.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1238">(х) — щільність імовірності розподілу випадкової величини.
Математичне сподівання має ту ж розмірність, що і випадкова величина, та має властивості:
1. Математичне сподівання постійної величини дорівнює величині постійної, тобто М(С) = С.
2. Постійний множник можна виносити за знак математичного сподівання М(СХ) = СМХ.
3. Математичне сподівання суми декількох випадкових величин дорівнює сумі їх математичних сподівань M (x+y+…+k) = Mx + My + … + Mk
4. Математичне сподівання добутку декількох взаємно незалежних випадкових величин дорівнює добутку їх математичних сподівань
<shape id="_x0000_i1239" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image384.wmz» o:><img width=«216» height=«25» src=«dopb206532.zip» v:shapes="_x0000_i1239">
Математичне сподівання може бути як додатнім, так і від'ємним.
Відомо, що для повної групи подій <shape id="_x0000_i1240" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image386.wmz» o:><img width=«61» height=«27» src=«dopb206533.zip» v:shapes="_x0000_i1240">.
Таким чином, виявляється механічна інтерпретація математичного сподівання. Воно буде абсцисою центру тяжіння системи матеріальних точок.
Якщо ймовірності появи випадкових величин xі тобто
<shape id="_x0000_i1241" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image388.wmz» o:><img width=«167» height=«45» src=«dopb206534.zip» v:shapes="_x0000_i1241">
де X — середнє арифметичне значення випадкової величини.
Це означає, що математичне сподівання приблизно дорівнює середньому арифметичному значенню випадкової величини. Воно буде тим точніше, чим більше буде проведено дослідів.
2) Мода і медіана випадкової величини
Модою Мо дискретної випадкової величини називають таке її значення, що має найбільшу ймовірність.
Практично, якщо маємо дискретний ряд розподілу, то знаходимо таке k-е значення випадкової величини х, що має найбільшу величину ймовірності Pn(k).
Для неперервної випадкової величини модою буде таке її значення, що має максимум щільності розподілу, тобто <shape id="_x0000_i1242" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image390.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1242">(Мо) = mах.
Якщо многокутник розподілу або крива розподілу має два або більше максимумів, то такий розподіл називають двохмодальним чи багатомодальним.
Медіаною Ме випадкової величини X називають таке її значення, відносно якого ймовірність появи як більшого, так і меншого значення випадкової величини X має приблизно однакову ймовірність, тобто
<shape id="_x0000_i1243" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image391.wmz» o:><img width=«157» height=«21» src=«dopb206535.zip» v:shapes="_x0000_i1243">
Геометрична медіана — це абсциса точки, де площа кривої розподілу розділяється наполовину. Тоді функція розподілу в точці Ме дорівнює математичне сподівання, мода і медіана збігаються, тобто
<shape id="_x0000_i1244" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image393.wmz» o:><img width=«105» height=«24» src=«dopb206536.zip» v:shapes="_x0000_i1244">
3) Дисперсія і середнє квадратичне відхилення
Очевидно, що величину розсіювання для кожної випадкової величини від математичного сподівання можна обчислити, тобто <shape id="_x0000_i1245" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image395.wmz» o:><img width=«85» height=«25» src=«dopb206537.zip» v:shapes="_x0000_i1245">
Величину <shape id="_x0000_i1246" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image397.wmz» o:><img width=«19» height=«20» src=«dopb206538.zip» v:shapes="_x0000_i1246"> називають центрованою випадковою величиною. Так як імовірність появи центрованих випадкових величин X справа і зліва від Мх однакова, то її математичне сподівання дорівнює нулю і не може характеризувати розсіювання її значень. Тому якістю міри розсіювання X беруть математичне сподівання від квадрата відхилення випадкової величини від її математичного сподівання і називають його дисперсією.
Дисперсією випадкової величини є математичне сподівання квадрата відхилення випадкової величини від її математичного сподівання, тобто
<shape id="_x0000_i1247" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image399.wmz» o:><img width=«137» height=«25» src=«dopb206539.zip» v:shapes="_x0000_i1247">
Для дискретної випадкової величини дисперсія матиме вигляд суми
<shape id="_x0000_i1248" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image401.wmz» o:><img width=«144» height=«48» src=«dopb206540.zip» v:shapes="_x0000_i1248">
для неперервної це буде інтеграл
<shape id="_x0000_i1249" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image403.wmz» o:><img width=«165» height=«52» src=«dopb206541.zip» v:shapes="_x0000_i1249">
Дисперсія має розмірність квадрата розмірності випадкової величини, що не зовсім зручно. Тому для характеристики міри розсіювання випадкової величини приймають додатковий квадратичний корінь із дисперсії. Цю характеристику називають середнім квадратичним відхиленням або стандартам і позначають символом <shape id="_x0000_i1250" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image405.wmz» o:><img width=«21» height=«24» src=«dopb206542.zip» v:shapes="_x0000_i1250">
<shape id="_x0000_i1251" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image407.wmz» o:><img width=«72» height=«28» src=«dopb206543.zip» v:shapes="_x0000_i1251">
Стандарт має таку саму розмірність, як і випадкова величина X. Дисперсія має такі властивості:
1. Дисперсія постійної величини дорівнює нулю D (C) = 0.
2. Дисперсія добутку постійної величини на випадкову величину дорівнює добутку квадрата постійної величини на дисперсію випадкової величини D(CX) = C2Dx
Якщо маємо декілька таких добутків, то <shape id="_x0000_i1252" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image409.wmz» o:><img width=«155» height=«45» src=«dopb206544.zip» v:shapes="_x0000_i1252">
3. Дисперсія випадкової величини дорівнює математичному сподіванню її квадрата мінус квадрат її математичного сподівання
<shape id="_x0000_i1253" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image411.wmz» o:><img width=«144» height=«25» src=«dopb206545.zip» v:shapes="_x0000_i1253">
4). Моменти випадкової величини
Узагальненням основних числових характеристик випадкових величин є моменти випадкової величини. Визначають початкові та центральні моменти.
Початковим моментом k-го порядку випадкової величини Xk називають математичне сподівання від величини X, тобто
<shape id="_x0000_i1254" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image413.wmz» o:><img width=«88» height=«25» src=«dopb206546.zip» v:shapes="_x0000_i1254">
Для дискретної випадкової величини початковий момент буде
<shape id="_x0000_i1255" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image415.wmz» o:><img width=«91» height=«45» src=«dopb206547.zip» v:shapes="_x0000_i1255">
для неперервної <shape id="_x0000_i1256" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image417.wmz» o:><img width=«111» height=«49» src=«dopb206548.zip» v:shapes="_x0000_i1256">
При порівняні формул видно, що початковий момент першого порядку є математичне сподівання випадкової величини, тобто <shape id="_x0000_i1257" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image419.wmz» o:><img width=«19» height=«23» src=«dopb206549.zip» v:shapes="_x0000_i1257"> = Мх.
Центральним моментом k-го порядку випадкової величини X називають математичне сподівання від величини (X-Mx)k
Очевидно, що центральний момент першого порядку завжди буде дорівнювати нулю.
5) Асиметрія та ексцес.
Третій центральний момент <shape id="_x0000_i1258" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image421.wmz» o:><img width=«20» height=«24» src=«dopb206550.zip» v:shapes="_x0000_i1258"> служить характеристикою асиметрії (скошеність) розподілу. Якщо <shape id="_x0000_i1259" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image423.wmz» o:><img width=«21» height=«24» src=«dopb206551.zip» v:shapes="_x0000_i1259"> = 0, то ми маємо симетричний розподіл випадкової величини відносно математичного сподівання.
Асиметрія — це відношення третього центрального моменту до середнього квадратичного відхилення в третьому степені
<shape id="_x0000_i1260" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image425.wmz» o:><img width=«59» height=«47» src=«dopb206552.zip» v:shapes="_x0000_i1260">
Математичне сподівання, мода, медіана, дисперсія, середнє квадратичне відхилення, моменти, асиметрія і ексцес використовують для характеристики випадкових величин при вирішенні великої кількості практичних задач, коли закон розподілу або не потрібний, або його не можна визначити. Треба пам'ятати, що кожна із числових характеристик відображає ту чи іншу властивість закону розподілу.
Центральні моменти можна виразити через початкові моменти
<shape id="_x0000_i1261" type="#_x0000_t75" o:ole="" o:bullet=«t»><imagedata src=«42413.files/image427.wmz» o:><img width=«49» height=«23» src=«dopb206553.zip» alt="*" v:shapes="_x0000_i1261">
<shape id="_x0000_i1262" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image429.wmz» o:><img width=«131» height=«25» src=«dopb206554.zip» v:shapes="_x0000_i1262">
<shape id="_x0000_i1263" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image431.wmz» o:><img width=«159» height=«25» src=«dopb206555.zip» v:shapes="_x0000_i1263">
<shape id="_x0000_i1264" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image433.wmz» o:><img width=«204» height=«25» src=«dopb206556.zip» v:shapes="_x0000_i1264">
4. Нормальний закон розподілу випадкових величин
Нормальний закон розподілу випадкових величин має важливе значення в теорії ймовірностей і найчастіше зустрічається на практиці. Головна його властивість полягає в тому, що серед інших законів він є граничним законом, до якого наближуються інші закони розподілу в досить частих подібних типових умовах. Доведено, що більшість випадкових величин, якому б закону розподілу не підкорялися, в сумі великого числа додатних нівелюються, а сума їх підкоряється закону досить близькому до нормального закону. Це твердження відноситься і до результатів геодезичних вимірів.
Неперервна випадкова величина має нормальний розподіл, якщо щільність імовірності має рівняння
<shape id="_x0000_i1265" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image435.wmz» o:><img width=«153» height=«51» src=«dopb206557.zip» v:shapes="_x0000_i1265">
де е = 2,718..., <shape id="_x0000_i1266" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image437.wmz» o:><img width=«15» height=«15» src=«dopb206558.zip» v:shapes="_x0000_i1266"> = 3,141..., Мх — математичне сподівання, <shape id="_x0000_i1267" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image439.wmz» o:><img width=«16» height=«15» src=«dopb206559.zip» v:shapes="_x0000_i1267"> — середнє квадратичне відхилення (стандарт). Мх та <shape id="_x0000_i1268" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image441.wmz» o:><img width=«16» height=«15» src=«dopb206559.zip» v:shapes="_x0000_i1268"> називають параметрами нормального закону розподілу. Якщо відомі значення Мх і <shape id="_x0000_i1269" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image441.wmz» o:><img width=«16» height=«15» src=«dopb206559.zip» v:shapes="_x0000_i1269">, то щільність імовірності повністю визначена.
Відмітимо деякі властивості кривої нормального розподілу:
1. Крива розподілу симетрична відносно ординати, яка проходить через точку Мх.
2. Крива має один максимум при х = Мх і дорівнює <shape id="_x0000_i1270" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image442.wmz» o:><img width=«48» height=«44» src=«dopb206560.zip» v:shapes="_x0000_i1270">
3. При <shape id="_x0000_i1271" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image444.wmz» o:><img width=«53» height=«27» src=«dopb206561.zip» v:shapes="_x0000_i1271"> гілки кривої асимптотично наближаються до осі Ох
4. Якщо <shape id="_x0000_i1272" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image446.wmz» o:><img width=«80» height=«24» src=«dopb206562.zip» v:shapes="_x0000_i1272">, то зміна значення математичного сподівання Мх призводить до зміщення кривої розподілу вздовж осі Ох.
5. При <shape id="_x0000_i1273" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image448.wmz» o:><img width=«80» height=«24» src=«dopb206562.zip» v:shapes="_x0000_i1273"> і зміні величини середнього квадратичного відхилення крива розподілу стає більш гостроверхою або плосковерхою.
При вирішенні практичних задач, нормальний розподіл відіграє важливу роль. Якщо випадкова величина X підкоряється нормальному закону розподілу, то ймовірність її попадання на ділянку (<shape id="_x0000_i1274" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image449.wmz» o:><img width=«33» height=«21» src=«dopb206522.zip» v:shapes="_x0000_i1274">) дорівнює
<shape id="_x0000_i1275" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image450.wmz» o:><img width=«288» height=«63» src=«dopb206563.zip» v:shapes="_x0000_i1275">
Згідно з четвертою та п'ятою властивостями для різних випадкових величин X буде своя крива розподілу. Щоб уникнути цього визначають нормований нормальний закон розподілу. Вводять нормовану випадкову величину t
<shape id="_x0000_i1276" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image452.wmz» o:><img width=«76» height=«47» src=«dopb206564.zip» v:shapes="_x0000_i1276">,
для якої математичне сподівання <shape id="_x0000_i1277" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image454.wmz» o:><img width=«51» height=«24» src=«dopb206565.zip» v:shapes="_x0000_i1277">, а квадратичне відхилення <shape id="_x0000_i1278" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image456.wmz» o:><img width=«43» height=«24» src=«dopb206566.zip» v:shapes="_x0000_i1278">.
Інтеграл не можна виразити через елементарні функції. Тому його обчислюють через спеціальну функцію, що є визначеним інтегралом від величини <shape id="_x0000_i1279" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image458.wmz» o:><img width=«28» height=«35» src=«dopb206567.zip» v:shapes="_x0000_i1279"> (інтеграл імовірностей.
Іноді приводять таблицю функції 2<shape id="_x0000_i1280" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image460.wmz» o:><img width=«13» height=«21» src=«dopb206525.zip» v:shapes="_x0000_i1280">(t) для обчислення ймовірності попадання нормально розподіленої випадкової величини X в симетричні інтервали від -t до t.
Функцію <shape id="_x0000_i1281" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image461.wmz» o:><img width=«13» height=«21» src=«dopb206525.zip» v:shapes="_x0000_i1281">(t) називають нормованою функцією Лапласа або інтегралом імовірностей.
РОЗДІЛ 3. СИСТЕМИ ВИПАДКОВИХ ВЕЛИЧИН. ГРАНИЧНІ ТЕОРЕМИ ТЕОРІЇ ЙМОВІРНОСТЕЙ
1. Поняття та закон розподілу системи випадкових величин
До цього часу ми розглядали одномірну випадкову величину X. Однак в сучасній теорії математичної обробки результатів багаторазових повторних геодезичних вимірювань використовують багатомірні випадкові величини. Багатомірна випадкова величина може складатися із декількох компонентів і бути двомірною, тримірною і так далі. Так, наприклад, координати точки на площині визначаються двома випадковими величинами: абсцисою X та ординатою У; положення точки в просторі визначається вже трьома координатами — X, Y та висотою Н.
Сумісна дія двох чи більше випадкових величин приводить до системи випадкових величин. Умовимось систему декількох випадкових величин X, У, ..., N позначати (X, У, ..., N). При вивченні системи випадкових величин визначають характеристики як кожної випадкової величини, так і зв'язки та залежність між ними. А це вже більш складні задачі.
Домовимось, що систему двох випадкових величин (Х, У) ми будемо розглядати як випадкову точку на площині х0у з координатами X і У, або як випадковий вектор на площині з випадковими складовими X i У. Систему трьох випадкових величин (X, У, Z) — як випадкову точку в тримірному просторі або, як випадковий вектор в просторі. За аналогією, систему n -випадкових величин (X, У, ..., N) розглядають як випадкову точку в n-мірному просторі або, як n-мірний випадковий вектор.
продолжение
--PAGE_BREAK--Законом розподілу системи випадкових величин називають співвідношення, що встановлює зв'язок між областями можливих значень системи випадкових величин і ймовірностями появи їх в цих областях.
Закон розподілу системи випадкових величин можна задавати в різних формах. Покажемо табличний спосіб розподілу системи дискретних випадкових величин.
Якщо X та У — дискретні випадкові величини, значення яких дорівнюють (ХbУj), де і = <shape id="_x0000_i1282" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image462.wmz» o:><img width=«35» height=«21» src=«dopb206568.zip» v:shapes="_x0000_i1282">, а j = (<shape id="_x0000_i1283" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image464.wmz» o:><img width=«28» height=«21» src=«dopb206569.zip» v:shapes="_x0000_i1283">), то їх розподіл системи можна характеризувати ймовірностями рij = Р(Х = х1; Y = y1. Це означає, що коли випадкова величина X приймає значення х1 одночасно і величина Y прийме значення уj
Всі можливі події (X = xі, Y = yj) і = <shape id="_x0000_i1284" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image462.wmz» o:><img width=«35» height=«21» src=«dopb206568.zip» v:shapes="_x0000_i1284">, а j = (<shape id="_x0000_i1285" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image464.wmz» o:><img width=«28» height=«21» src=«dopb206569.zip» v:shapes="_x0000_i1285">) складають повну групу несумісних подій і тому
<shape id="_x0000_i1286" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image466.wmz» o:><img width=«216» height=«37» src=«dopb206570.zip» v:shapes="_x0000_i1286">
2. Система двох випадкових величин
В практиці геодезичних вимірів досить часто взаємодіють дві випадкові величини X та У, тобто двомірні випадкові величини. В попередньому параграфі ми наводили приклад з координатами точки. При лінійних вимірах взаємодіють — довжина мірного приладу та температура. При дослідженнях деформацій інженерних споруд взаємодіють — величина осідання та інтервал часу і так далі.
Закон розподілу системи двох випадкових величин задають функцією розподілу та щільністю розподілу.
Функцією розподілу системи двох випадкових величин називають функцію двох аргументів F (х, у), що дорівнює ймовірності сумісного виконання двох нерівностей Х<х і У < у, тобто
F(x,y) = P (X<x I Y<y)
Геометричне функцією розподілу системи двох випадкових величин є ймовірність попадання випадкової точки (Х, У) в нескінченний квадрат площини з вершиною в точці (х, у).
Функція розподілу має такі властивості:
1. Якщо один із аргументів наближається до плюс нескінченності, то функція розподілу системи наближається до функції розподілу випадкової величини другого аргументу, тобто
<shape id="_x0000_i1287" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image468.wmz» o:><img width=«116» height=«23» src=«dopb206571.zip» v:shapes="_x0000_i1287">
<shape id="_x0000_i1288" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image470.wmz» o:><img width=«117» height=«23» src=«dopb206572.zip» v:shapes="_x0000_i1288">
2. При наближенні обох аргументів до плюс нескінченності функція розподілу F (х, у) наближається до одиниці:
<shape id="_x0000_i1289" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image472.wmz» o:><img width=«33» height=«47» src=«dopb206573.zip» v:shapes="_x0000_i1289"><shape id="_x0000_i1290" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image474.wmz» o:><img width=«77» height=«21» src=«dopb206574.zip» v:shapes="_x0000_i1290"> або <shape id="_x0000_i1291" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image476.wmz» o:><img width=«100» height=«21» src=«dopb206575.zip» v:shapes="_x0000_i1291">
3. При наближенні одного чи обох аргументів до мінус нескінченності функція розподілу наближається до нуля:
<shape id="_x0000_i1292" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image472.wmz» o:><img width=«33» height=«47» src=«dopb206573.zip» v:shapes="_x0000_i1292"><shape id="_x0000_i1293" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image478.wmz» o:><img width=«261» height=«31» src=«dopb206576.zip» v:shapes="_x0000_i1293">
Практичне значення мають системи неперервних випадкових величин, розподіл яких характеризують щільністю розподілу <shape id="_x0000_i1294" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image480.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1294">(х, у). За допомогою неї більш просто знаходять імовірність попадання в різні області, а опис розподілу системи випадкових величин стає більш наочним.
Щільність розподілу системи двох випадкових неперервних величин визначають як другу змішану часткову похідну від функції F(х, у), тобто
<shape id="_x0000_i1295" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image481.wmz» o:><img width=«204» height=«48» src=«dopb206577.zip» v:shapes="_x0000_i1295">
Функція розподілу F(х, у) визначається за формулою
<shape id="_x0000_i1296" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image483.wmz» o:><img width=«175» height=«49» src=«dopb206578.zip» v:shapes="_x0000_i1296">
Щільність розподілу системи двох випадкових величин має властивості:
1. Щільністю розподілу є функція <shape id="_x0000_i1297" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image485.wmz» o:><img width=«77» height=«21» src=«dopb206579.zip» v:shapes="_x0000_i1297">
2. Подвійний інтеграл з нескінченними межами від функції щільності розподілу дорівнює одиниці:
<shape id="_x0000_i1298" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image487.wmz» o:><img width=«133» height=«49» src=«dopb206580.zip» v:shapes="_x0000_i1298">
Геометрично це свідчить про те, що об'єм тіла, відмежованого поверхнею розподілу і площиною х0у, дорівнює одиниці.
Щільності розподілу величин х та у, що входять в систему, визначають за формулами:
<shape id="_x0000_i1299" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image489.wmz» o:><img width=«112» height=«49» src=«dopb206581.zip» v:shapes="_x0000_i1299">
<shape id="_x0000_i1300" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image491.wmz» o:><img width=«115» height=«49» src=«dopb206582.zip» v:shapes="_x0000_i1300">
Тобто, для визначення щільності розподілу однієї із системи випадкових величин, треба проінтегрувати в необмежених межах щільність розподілу системи <shape id="_x0000_i1301" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image493.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1301">(х, у) за аргументом другої випадкової величини.
Якщо відомі щільності розподілу окремих випадкових величин системи і випадкові величини х та у незалежні між собою, то можна визначити закон їх сумісного розподілу за формулою
<shape id="_x0000_i1302" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image494.wmz» o:><img width=«147» height=«23» src=«dopb206583.zip» v:shapes="_x0000_i1302">
Поняття залежності та незалежності випадкових величин має велике значення в теорії ймовірностей та при математичній обробці результатів вимірів.
Випадкова величина X буде незалежною від випадкової величини У, якщо закон розподілу величини X не залежить від прийнятого значення величини У, тобто
<shape id="_x0000_i1303" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image496.wmz» o:><img width=«104» height=«23» src=«dopb206584.zip» v:shapes="_x0000_i1303">
і навпаки, для випадкової величини Y маємо
<shape id="_x0000_i1304" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image498.wmz» o:><img width=«107» height=«23» src=«dopb206585.zip» v:shapes="_x0000_i1304">
Якщо вони взаємно залежні між собою, то <shape id="_x0000_i1305" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image500.wmz» o:><img width=«104» height=«23» src=«dopb206586.zip» v:shapes="_x0000_i1305">; <shape id="_x0000_i1306" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image502.wmz» o:><img width=«107» height=«23» src=«dopb206587.zip» v:shapes="_x0000_i1306">
Випадкові величини Х і У незалежні, якщо щільність сумісного розподілу <shape id="_x0000_i1307" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image504.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1307">(х, у) можна визначити у вигляді добутку двох множників, кожен із яких утримує тільки величини х та у, тобто <shape id="_x0000_i1308" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image505.wmz» o:><img width=«137» height=«21» src=«dopb206588.zip» v:shapes="_x0000_i1308">
Додамо, що при розкладанні, функції <shape id="_x0000_i1309" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image507.wmz» o:><img width=«35» height=«21» src=«dopb206589.zip» v:shapes="_x0000_i1309">, <shape id="_x0000_i1310" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image509.wmz» o:><img width=«16» height=«21» src=«dopb206372.zip» v:shapes="_x0000_i1310">(у) з точністю до постійної множників збігаються з щільностями розподілу <shape id="_x0000_i1311" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image510.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1311">1(х) і <shape id="_x0000_i1312" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image510.wmz» o:><img width=«15» height=«17» src=«dopb206518.zip» v:shapes="_x0000_i1312">2(у).
Між випадковими величинами виникає функціональна або стохастнчна (ймовірна) залежність.
Функціональною залежністю між випадковими величинами X і У називають таку залежність, коли кожному значенню X відповідає точне значення У.
Стохастичною (ймовірною) залежністю між випадковими величинами X і У називають таку залежність, при якій кожному значенню х можна вказати розподіл величини у, яке змінюється при зміні х.
Така залежність в практичній діяльності зустрічається досить часто. Наприклад, зріст та вага людини, висота і товщина дерева в лісі, величина деформації інженерних споруд, час їх експлуатації і т.д.
Тобто у випадку ймовірної залежності на кожне точне значення аргументу х можна вказати значення випадкової величини у з певною мірою ймовірності (Ру).
Система двох випадкових величин може підкорятися різним законам розподілу. Проте в практиці геодезичних вимірювань найбільше розповсюдження має нормальний закон розподілу.
3. Числові характеристики системи двох випадковихвеличин. Кореляційний момент, коефіцієнт кореляції ірівняння регресії
Найбільш повними ймовірними характеристиками системи двох випадкових величин є закон розподілу. Однак в практичній діяльності не завжди є можливість визначити його. Тому при дослідженнях систему двох випадкових величин характеризують їх числовими характеристиками: початковими та центральними моментами.
Початковим моментом <shape id="_x0000_i1313" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image511.wmz» o:><img width=«24» height=«25» src=«dopb206590.zip» v:shapes="_x0000_i1313"> порядку s, q системи (X, У) називається математичне сподівання від добутка Xs на Y9.
<shape id="_x0000_i1314" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image513.wmz» o:><img width=«107» height=«27» src=«dopb206591.zip» v:shapes="_x0000_i1314">
Для системи дискретних випадкових величин
<shape id="_x0000_i1315" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image515.wmz» o:><img width=«131» height=«45» src=«dopb206592.zip» v:shapes="_x0000_i1315">
Між випадковими величинами X і У може виникати зв'язок. Кореляційний момент Х і Y характеризує силу або щільність зв'язку. Відомо, якщо між випадковими величинами існує ймовірний зв'язок (залежність), то зі зміною випадкової величини X змінюється закон розподілу випадкової величини У. В той же час закон розподілу задають кривою розподілу у =<shape id="_x0000_i1316" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image517.wmz» o:><img width=«37» height=«21» src=«dopb206593.zip» v:shapes="_x0000_i1316">. Характер кривих може бути різним, тому і відрізняють декілька типів імовірної залежності. Одним із найбільш розповсюджених типів є кореляційна залежність, за якої заміна аргументу х призводить до зміни математичного сподівання величини у. В першому випадку ми маємо прямолінійну кореляцію. При дослідженнях можуть виникнути й інші типи кореляційної залежності.
Кореляційну залежність часто називають кореляцією. Кореляційний момент має розмірність, яка залежить від розмірності випадкових величин X і У. Тому для оцінки сили зв'язку між випадковими величинами системи (X, У) використовують не коефіцієнт зв'язку Кху, а безрозмірне відношення
<shape id="_x0000_i1317" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image519.wmz» o:><img width=«77» height=«51» src=«dopb206594.zip» v:shapes="_x0000_i1317">,
яке називають коефіцієнтом кореляції випадкових величин Х і У. Коефіцієнт кореляції змінюється в межах від -1 до +1, тобто <shape id="_x0000_i1318" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image521.wmz» o:><img width=«77» height=«25» src=«dopb206595.zip» v:shapes="_x0000_i1318">
Якщо r > 0, то маємо позитивну кореляцію, тобто із збільшенням абсциси х, збільшується величина ординати у і навпаки при r < 0.
Якщо випадкові величини X і Y незалежні, то кореляційний момент і коефіцієнт кореляції дорівнює нулю, тобто Кху = 0 і rxy = 0.
Дві корельовані випадкові величини завжди є взаємозалежними, але дві залежні величини не завжди є корельованими. Прикладом цього може бути система випадкових величин (X, Y) рівномірно розподілена в межах кола з центром на початку координат. Розрахунки показують, що величини X і У залежні, а кореляційний момент Кxу = 0, а це означає, що і rxy = 0.
Випадкові величини X і У називають корельованими, якщо <shape id="_x0000_i1319" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image523.wmz» o:><img width=«51» height=«29» src=«dopb206596.zip» v:shapes="_x0000_i1319"> i при <shape id="_x0000_i1320" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image525.wmz» o:><img width=«51» height=«29» src=«dopb206597.zip» v:shapes="_x0000_i1320"> - некорельованими.
ГЛАВА II. ЕЛЕМЕНТИ МАТЕМАТИЧНОЇ СТАТИСТИКИ.
СТАТИСТИЧНА ОЦІНКА ПАРАМЕТРІВ РОЗПОДІЛУ
1. Основні поняття і задачі математичної статистики. Генеральна сукупність та вибірка
Математична статистика — дисципліна, яка займається регістрацією, збором, описом і аналізом експериментальних даних з метою вивчення закономірностей масових випадкових явищ.
Таким чином, всі задачі математичної статистики зводяться до визначення методів обробки результатів експериментальних досліджень (спостережень) масових випадкових явищ.
Найбільш типовими задачами математичної статистики є:
1. Оцінка невідомої функції розподілу за результатами вимірів. Якщо за результатами досліджень випадкової величини X одержано значення x1, x2, … xn то необхідно приблизно оцінити невідому функцію розподілу Р(х).
2. Оцінка точності невідомих параметрів розподілу. При вирішенні цього питання обчислюють параметри функції розподілу випадкової величини на основі отриманих результатів експерименту і оцінюють їх значення.
3. Статистична перевірка гіпотез. Якщо за результатами експерименту визначено функцію розподілу Р(х) випадкової величини X, то вирішується питання: чи дійсно випадкова величина X має розподіл Р(х)?
При дослідженнях випадкових явищ виконують досить велику кількість випробувань (експериментів) — N.
Генеральна сукупність — це сукупність значень результатів досліджень (вимірів). Досить часто мають на увазі, що число N може бути нескінченним.
Проте практично виконати нескінченну кількість дослідів (вимірів) або обстежити нескінченну кількість виробів неможливо, і економічно невигідно. В цьому випадку із всієї генеральної сукупності відбирають обмежене число результатів експерименту.
Вибірковою сукупністю або просто вибіркою називають сукупність випадково вибраних результатів чи об'єктів.
Проте вибірка може як досить точно характеризувати досліджуване випадкове явище, так і ні.
Представницькою або презентабельною вибірковою називають об'єм вибірки n із генеральної сукупності N, який дозволяє повною мірою визначити характеристики генеральної сукупності. Інформація буде більш імовірною, коли результати досліджень, що складають вибірку, будуть незалежними.
2. Розподіл статистичних рядів
Практично, до початку досліджень випадкового явища, заздалегідь невідомо, якому закону розподілу будуть підпорядковуватися результати експерименту. Для його визначення над випадковою величиною X виконують низку незалежних експериментів (вимірів).
Статистична таблиця є початковою формою запису статистичного матеріалу, який може оброблятися різними методами.
Однак при великій кількості експериментів (вимірів) їх результати практично неможливо показати в статистичній таблиці. Тоді результати спостережень розділяють на групи. Кожна група містить деяку кількість (частоту) результатів, що належать визначеному інтервалу. Довжина інтервалу розраховується за формулою Г.А.Стерджеса
<shape id="_x0000_i1321" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image527.wmz» o:><img width=«100» height=«45» src=«dopb206598.zip» v:shapes="_x0000_i1321">
де n — кількість результатів спостережень.
Можна задати число інтервалів k. Тоді довжину інтервалу визначають за формулою
<shape id="_x0000_i1322" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image529.wmz» o:><img width=«97» height=«43» src=«dopb206599.zip» v:shapes="_x0000_i1322">
Значення інтервалу l заокруглюють до зручного цілого значення так, щоб число їх було в межах <shape id="_x0000_i1323" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image531.wmz» o:><img width=«71» height=«19» src=«dopb206600.zip» v:shapes="_x0000_i1323">.
<img width=«14» height=«98» src=«dopb206601.zip» v:shapes="_x0000_s1033">Потім визначають граничні значення інтервалів за формулами
для 1-ої групи <shape id="_x0000_i1324" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image534.wmz» o:><img width=«68» height=«24» src=«dopb206602.zip» v:shapes="_x0000_i1324"> <shape id="_x0000_i1325" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image536.wmz» o:><img width=«79» height=«24» src=«dopb206603.zip» v:shapes="_x0000_i1325">
для 2-ої групи <shape id="_x0000_i1326" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image538.wmz» o:><img width=«59» height=«24» src=«dopb206604.zip» v:shapes="_x0000_i1326"> <shape id="_x0000_i1327" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image540.wmz» o:><img width=«79» height=«24» src=«dopb206605.zip» v:shapes="_x0000_i1327">
для k-ої групи <shape id="_x0000_i1328" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image542.wmz» o:><img width=«67» height=«25» src=«dopb206606.zip» v:shapes="_x0000_i1328"> <shape id="_x0000_i1329" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image544.wmz» o:><img width=«123» height=«25» src=«dopb206607.zip» v:shapes="_x0000_i1329">
де <shape id="_x0000_i1330" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image546.wmz» o:><img width=«20» height=«25» src=«dopb206608.zip» v:shapes="_x0000_i1330">, <shape id="_x0000_i1331" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image548.wmz» o:><img width=«20» height=«25» src=«dopb206609.zip» v:shapes="_x0000_i1331"> - відповідно початкове та кінцеве значення абсциси х (результатів вимірів).
Для кожної групи підраховують частоту результатів Vi, які попадають в граничні значення <shape id="_x0000_i1332" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image550.wmz» o:><img width=«20» height=«25» src=«dopb206608.zip» v:shapes="_x0000_i1332"> і <shape id="_x0000_i1333" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image551.wmz» o:><img width=«20» height=«25» src=«dopb206609.zip» v:shapes="_x0000_i1333">, і статистичну ймовірність <shape id="_x0000_i1334" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image552.wmz» o:><img width=«19» height=«24» src=«dopb206610.zip» v:shapes="_x0000_i1334"> за формулою
<shape id="_x0000_i1335" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image554.wmz» o:><img width=«53» height=«43» src=«dopb206611.zip» v:shapes="_x0000_i1335">,
причому V1 + V2 + ...+ Уk = n; р1 + р2+… + рk = 1.
За допомогою статистичної таблиці або статистичної сукупності можна побудувати статистичну функцію розподілу випадкової величини X.
3. Оцінювання параметрів закону розподілу
Відомо, що випадкова величина X характеризується законом розподілу, що має деякі невідомі параметри a(a1, a2, …, аk). Якщо в результаті виконаного експерименту нами отримано статистичний ряд Х1, Х2, ..., Х3 то очевидно можна знайти надійну оцінку параметра а.
Припустимо, що на основі обробки статистичного ряду отримано параметра, який буде оцінкою невідомого параметра <shape id="_x0000_i1336" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image556.wmz» o:><img width=«15» height=«19» src=«dopb206612.zip» v:shapes="_x0000_i1336">. Разом з тим, він буде функцією від випадкових величин Х1, Х2, ..., Х3 тобто
<shape id="_x0000_i1337" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image558.wmz» o:><img width=«133» height=«24» src=«dopb206613.zip» v:shapes="_x0000_i1337">
Таким чином і обчислений параметр а буде випадковою величиною, закон розподілу якого залежить від закону розподілу випадкової величини X і від числа експериментів n. При цьому оцінка а буде мати практичну цінність, якщо володіє властивостями:
1. Незміщеності. При цьому повинна виконуватися умова
<shape id="_x0000_i1338" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image560.wmz» o:><img width=«203» height=«24» src=«dopb206614.zip» v:shapes="_x0000_i1338">
де а — істинне значення параметра.
2. Обгрунтованості. Тобто за ймовірністю вона зводиться до оцінюваного параметра при нескінченному збільшенні кількості дослідів, тобто
<shape id="_x0000_i1339" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image562.wmz» o:><img width=«27» height=«29» src=«dopb206615.zip» v:shapes="_x0000_i1339"><shape id="_x0000_i1340" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image564.wmz» o:><img width=«187» height=«29» src=«dopb206616.zip» v:shapes="_x0000_i1340">
де <shape id="_x0000_i1341" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image566.wmz» o:><img width=«13» height=«21» src=«dopb206617.zip» v:shapes="_x0000_i1341"> - як завгодно мале позитивне число.
3. Ефективності. Це означає, що дисперсія оцінки а повинна бути мінімальною, тобто
<shape id="_x0000_i1342" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image568.wmz» o:><img width=«176» height=«24» src=«dopb206618.zip» v:shapes="_x0000_i1342">
При цьому буде мінімальна ймовірність появи грубої помилки при визначенні наближеного значення невідомого параметра.
Таким чином при розробці методів обробки статистичних даних для визначення оцінок наближених значень невідомих параметрів треба виходити з їх властивостей. Оцінки параметрів закону розподілу, що відповідають всім трьом властивостям називають доброякісними.
Практично розроблено три способи визначення оцінок: метод моментів; метод максимальної правдоподібності (ММП); метод найменших квадратів (МНК).
В методі моментів значення теоретичних моментів заміняють значеннями емпіричних моментів, які обчислюють за результатами статистичних рядів чи статистичної сукупності.
В методі максимальної правдоподібності (ММП), розробленого Р. Фішером розглядають значення випадкових величин Х1, Х2, ..., Х3, що отримані при проведенні дослідів і використовують їх для визначення невідомого параметра а. Якщо щільність розподілу <shape id="_x0000_i1343" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image570.wmz» o:><img width=«13» height=«21» src=«dopb206525.zip» v:shapes="_x0000_i1343">(х, а) залежить від параметра а, то в ММП задаються правдоподібною функцією, виходячи з того, що всі Х1 незалежні. Сутність ММП полягає в тому, що за якісну оцінку параметра а беруть таке значення аргументу, яке приводить функцію L до максимуму. Рівняння розв'язують за умови
<shape id="_x0000_i1344" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image571.wmz» o:><img width=«52» height=«41» src=«dopb206619.zip» v:shapes="_x0000_i1344">
При цьому вибирають таке визначення а, яке зводить функцію Ь до максимуму. Для спрощення функцію правдоподібності заміняють логарифмом, тоді
<shape id="_x0000_i1345" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image573.wmz» o:><img width=«128» height=«41» src=«dopb206620.zip» v:shapes="_x0000_i1345">
РОЗДІЛ 5. СТАТИСТИЧНА ПЕРЕВІРКА ГІПОТЕЗ
1. Статистичні дослідження рядів вимірів
Навколишнє середовище, явища природи, закони фізики та інших наук вивчають шляхом випробувань, в результаті яких отримують випадкові величини або статистичний ряд x1, x2, …, xn. Одночасно може досліджуватися декілька явищ. При цьому отримують декілька статистичних рядів або сукупностей випадкових величин.
Залежно від процесів, що відбуваються при випробуваннях, кожен статистичний ряд підпорядковується тому чи іншому закону розподілу. Його можна визначити шляхом математичної обробки вимірів.
Для отримання надійних результатів і обгрунтованих рішень при математичній обробці результатів експериментів необхідно знати закони розподілу статистичних рядів. Знання закону розподілу необхідно і для застосування методів обробки вимірів.
Всяке передбачення про закон розподілу випадкових величин називають статистичною гіпотезою.
Статистична перевірка гіпотез полягає у визначенні закону розподілу результатів експериментів. Висунуту гіпотезу називають нульовою гіпотезою.
В результаті статистичної перевірки для нульової гіпотези визначають статистику Q. Перевірка нульової гіпотези базується на теорії надійних інтервалів та способах перевірки статистичних гіпотез.
За принципом практичної впевненості для висунутої нульової гіпотези визначають теоретичне значення статистики Qq. Його визначають за таблицями різних критеріїв перевірки по заданій імовірності p або рівнях значимості q = 1 — р. В разі, коли <shape id="_x0000_i1346" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image575.wmz» o:><img width=«49» height=«25» src=«dopb206621.zip» v:shapes="_x0000_i1346"> нульова гіпотеза приймається. В протилежному випадку вона не підтверджується, тобто відкидається.
Статистична перевірка може виконуватися одним і більше критеріями (методами). При цьому може виникнути дві помилки:
1. Бракування правильної гіпотези. Уникнути її можна підвищенням значення ймовірності р або зниженням рівня значності q.
2. Прийняття неправильної гіпотези. Уникнути її можна застосуванням різних критеріїв перевірки.
Ймовірність прийняття нульової гіпотези підвищується зі збільшенням кількості випробувань і практично надійна, коли <shape id="_x0000_i1347" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image577.wmz» o:><img width=«48» height=«15» src=«dopb206622.zip» v:shapes="_x0000_i1347">. Надійність перевірки статистичної гіпотези висока при достатньо великій імовірності бракування неправильної гіпотези. Важливе значення має і вибір критерію перевірки.
При математичній обробці геодезичних вимірів найбільш поширені такі перевірки статистичних гіпотез:
1. Визначення систематичної (або постійної) похибки
продолжение
--PAGE_BREAK--Залежність від умов експерименту може виконуватися такими способами:
а) систематичні похибки значно спотворюють результат і можуть призвести до недоброякісних оцінок. Систематична похибка може визначатися на компараторі розміром X і в результаті експериментів буде отримано статистичний ряд x1, x2, …, xn
При обробці за формулою визначають середнє арифметичне X і обчислюють різницю
<shape id="_x0000_i1348" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image579.wmz» o:><img width=«77» height=«21» src=«dopb206623.zip» v:shapes="_x0000_i1348">
За формулою визначають середню квадратичну похибку окремого виміру m та обчислюють середню квадратичну похибку середнього арифметичного X за формулою
<shape id="_x0000_i1349" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image581.wmz» o:><img width=«97» height=«44» src=«dopb206624.zip» v:shapes="_x0000_i1349">
Обчислюють статистику
<shape id="_x0000_i1350" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image583.wmz» o:><img width=«52» height=«45» src=«dopb206625.zip» v:shapes="_x0000_i1350">
2. Визначення граничних похибок.
При математичній обробці результатів вимірів слід виключати із обробки грубі помилки. Методика вимірювань дозволяє своєчасно виключити «промахи» при яких окремі результати значно відрізняються від інших. Разом з тим в статистичному ряду вимірів можуть бути результати вимірів, які досить близькі між собою, але за вимогами точності або технології виконання робіт будуть грубими. Тому поняття «груба помилка» досить умовне і залежить від прийнятої надійної ймовірності.
При визначенні цільності нормованого нормального закону розподілу користувалися нормованими похибками
<shape id="_x0000_i1351" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image585.wmz» o:><img width=«52» height=«43» src=«dopb206626.zip» v:shapes="_x0000_i1351">
де <shape id="_x0000_i1352" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image587.wmz» o:><img width=«19» height=«24» src=«dopb206454.zip» v:shapes="_x0000_i1352"> - похибка виміру; m — середня квадратична похибка.
При визначених умовах вимірів завжди існує деяка гранична похибка <shape id="_x0000_i1353" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image588.wmz» o:><img width=«32» height=«29» src=«dopb206627.zip» v:shapes="_x0000_i1353">, яку не можуть перевищити випадкові похибки. Тоді за функцією Лапласа нормованого нормального закону розподілу можна визначити інтервал zg, залежність від рівня значності q.
2. Перевірка закону розподілу статистичних рядів
Важливе значення при математичній обробці геодезичних вимірів має знання закону розподілу результатів або похибок вимірів. Найкращі оцінки отримують, коли ряд вимірів підпорядковується нормальному закону розподілу. Однак, практично комплекс умов постійно дещо змінюється. В наслідок цього виникає відхилення закону розподілу результатів вимірів від теоретичного значення функцій розподілу.
Практично на основі тих чи інших відомостей висувають припущення або («нульову») гіпотезу про вид закону розподілу статистичного ряду, створеного за результатами вимірів. Шляхом застосування різних критеріїв перевірки визначають, чи є допустимим розходження між дослідним і теоретичним (передбачуваним) законом розподілу.
Враховуючи, що результати геодезичних вимірів, як правило, підпорядковуються нормальному закону розподілу при дотриманні «комплексу умов» або вимог нормативно-технічної документації, розглянемо ряд критеріїв повірки відповідності нормальному закону розподілу результатів вимірів:
1. Перевірка по асиметрії і ексцесу
Гіпотезу про нормальний закон розподілу статистичного ряду називають нульовою або основною. Маємо статистичний ряд x1, x2, …, xn і висунута гіпотеза, що він підпорядковується нормальному закону розподілу (НЗР). За формулами можна визначити числові характеристики НЗР: математичне сподівання або середнє арифметичне, дисперсію, середню квадратичну похибку, асиметрію Sk та ексцес Еk.
Скористаємося тим, що асиметрія Sk та ексцес Еk є числовими характеристиками, що характеризують ступінь відхилення досліджуваного розподілу від теоретичного НЗР. Вони, як і інші параметри НЗР є випадковими величинами, а тому можуть відхилятися від нуля.
Мірою точності асиметрії та ексцесу є дисперсії
<shape id="_x0000_i1354" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image590.wmz» o:><img width=«129» height=«44» src=«dopb206628.zip» v:shapes="_x0000_i1354">
При великій кількості вимірів відповідно маємо
<shape id="_x0000_i1355" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image592.wmz» o:><img width=«133» height=«44» src=«dopb206629.zip» v:shapes="_x0000_i1355">
При великій кількості вимірів маємо:
<shape id="_x0000_i1356" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image594.wmz» o:><img width=«57» height=«41» src=«dopb206630.zip» v:shapes="_x0000_i1356"> <shape id="_x0000_i1357" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image596.wmz» o:><img width=«65» height=«41» src=«dopb206631.zip» v:shapes="_x0000_i1357">
2. Критерій Колмогорова
Це найбільш простий критерій перевірки гіпотези про нормальний закон розподілу. Використовується різниця D між статистичною інтегральною функцією розподілу <shape id="_x0000_i1358" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image598.wmz» o:><img width=«17» height=«20» src=«dopb206632.zip» v:shapes="_x0000_i1358">(z) і відповідною теоретичною функцією розподілу F(z).
При невеликій кількості вимірів <shape id="_x0000_i1359" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image600.wmz» o:><img width=«45» height=«19» src=«dopb206633.zip» v:shapes="_x0000_i1359"> для статистичного розрахунку обчислюють: середнє арифметичне <shape id="_x0000_i1360" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image602.wmz» o:><img width=«19» height=«20» src=«dopb206538.zip» v:shapes="_x0000_i1360">, відхилення <shape id="_x0000_i1361" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image603.wmz» o:><img width=«77» height=«25» src=«dopb206363.zip» v:shapes="_x0000_i1361">, за формулою Бесселя середню квадратичну похибку m. Далі обчислюють нормовані похибки <shape id="_x0000_i1362" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image604.wmz» o:><img width=«53» height=«43» src=«dopb206634.zip» v:shapes="_x0000_i1362"> і складають зростаючий ряд Zmin, Z1, Z2, … Zmax.
3. Критерій x2 (Пірсона)
В математичній статистиці його вважають найбільш строгим і надійним критерієм погодження нульових гіпотез. Він забезпечує мінімальну ймовірність виникнення похибок 2-го роду.
Розрахунки в критерії Пірсона аналогічні критерію Колмогорова і пов'язані з групуванням нормованих похибок. Слід пам'ятати, що при групуванні похибок в кожному інтервалі їх повинно бути не менше п'яти. Тому крайні інтервали можна штучно об'єднувати (збільшувати). Число інтервалів повинно бути не менше чотирьох.
Критерієм перевірки нульової гіпотези є статистика
<shape id="_x0000_i1363" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image606.wmz» o:><img width=«136» height=«51» src=«dopb206635.zip» v:shapes="_x0000_i1363">,
де N= [vi] — число всіх вимірів, pi — теоретичне значення ймовірності вибраних інтервалів вибирається із таблиць.
В критерії Пірсона доведено, що при нормальному розподілі похибок вимірів статистика X2 має X2 — розподіл з числом ступенів вільності k = n – 1.
Критична область для нульової гіпотези буде
<shape id="_x0000_i1364" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image608.wmz» o:><img width=«52» height=«27» src=«dopb206636.zip» v:shapes="_x0000_i1364">
де %д — вибирається із таблиць дод. 9 за заданими д\ і г = & — З, &- кількість інтервалів.
2. Розподіл імовірностей випадкових похибок
Результати вимірів е випадковими оскільки передбачити їх величину неможливо. Тоді і їх похибки будуть випадковими і для них можна вказати лише межу, в яких вони змінюються згідно з першою властивістю.
Неперервні випадкові похибки можна характеризувати законом розподілу, як об'єктивно існуючим зв'язком між випадковими величинами і їх імовірностями.
При багаторазових випробуваннях закон розподілу ряду істинних випадкових похибок можна характеризувати функціями:
1. Інтегральною функцією розподілу
<shape id="_x0000_i1365" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image610.wmz» o:><img width=«115» height=«21» src=«dopb206637.zip» v:shapes="_x0000_i1365"> (<shape id="_x0000_i1366" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image612.wmz» o:><img width=«43» height=«19» src=«dopb206638.zip» v:shapes="_x0000_i1366">)
2. Функцією щільності
<shape id="_x0000_i1367" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image614.wmz» o:><img width=«185» height=«41» src=«dopb206639.zip» v:shapes="_x0000_i1367">
де <shape id="_x0000_i1368" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image616.wmz» o:><img width=«15» height=«19» src=«dopb206640.zip» v:shapes="_x0000_i1368"> - приріст випадкової похибки <shape id="_x0000_i1369" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image618.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1369">.
Звернемося до постулату Гаусса, згідно з яким найбільш імовірним значенням шуканої величини є середнє арифметичне Із результатів повторних вимірювань. Скористаємося теоремою:
Якщо випадкові похибки відповідають постулату Гаусса, то законом розподілу випадкових похибок буде нормальний закон. В методі максимальної правдоподібності Фішера також доведено, що для нормального закону розподілу випадкових величин оцінкою параметра <shape id="_x0000_i1370" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image619.wmz» o:><img width=«15» height=«19» src=«dopb206612.zip» v:shapes="_x0000_i1370"> є середнє арифметичне.
Функція щільності нормального розподілу випадкових похибок визначиться за формулою
<shape id="_x0000_i1371" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image620.wmz» o:><img width=«131» height=«51» src=«dopb206641.zip» v:shapes="_x0000_i1371">
Для нормованих похибок <shape id="_x0000_i1372" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image622.wmz» o:><img width=«45» height=«41» src=«dopb206642.zip» v:shapes="_x0000_i1372"> отримаємо
<shape id="_x0000_i1373" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image624.wmz» o:><img width=«116» height=«51» src=«dopb206643.zip» v:shapes="_x0000_i1373">
3. Числові характеристики рівноточних вимірів
Рівноточними, називають виміри, дисперсії яких рівні між собою, тобто <shape id="_x0000_i1374" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image626.wmz» o:><img width=«59» height=«27» src=«dopb206644.zip» v:shapes="_x0000_i1374">. Тому рівноточні виміри можна виразити статистичним рядом
<shape id="_x0000_i1375" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image628.wmz» o:><img width=«71» height=«24» src=«dopb206645.zip» v:shapes="_x0000_i1375"> (<shape id="_x0000_i1376" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image630.wmz» o:><img width=«59» height=«27» src=«dopb206644.zip» v:shapes="_x0000_i1376">)
Якщо невідоме істинне значення вимірюваної величини Х, то необхідно знайти значення близьке до істинного. Його називають дійсним, або ймовірним значенням виміряної величини. Воно може бути прийнятим, коли точність вимірів задовольняє поставленим вимогам, або — відхилене. Тому постає задача обчислення за результатами вимірів показників як розміру шуканої величини, так і її точності, їх називають числовими характеристиками. В теорії похибок вимірів до числових характеристик відносять:
1. Середнє арифметичне
Використаємо ряд вимірів. Якщо відоме істинне значення вимірюваної величини X, то визначимо ряд істинних похибок
<shape id="_x0000_i1377" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image631.wmz» o:><img width=«84» height=«24» src=«dopb206646.zip» v:shapes="_x0000_i1377">
Складемо їх і поділимо на n
<shape id="_x0000_i1378" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image633.wmz» o:><img width=«93» height=«41» src=«dopb206647.zip» v:shapes="_x0000_i1378">
За четвертою властивістю компенсації випадкових похибок <shape id="_x0000_i1379" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image635.wmz» o:><img width=«15» height=«17» src=«dopb206431.zip» v:shapes="_x0000_i1379"> ліва
частина формули наближається до нуля при <shape id="_x0000_i1380" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image636.wmz» o:><img width=«48» height=«15» src=«dopb206622.zip» v:shapes="_x0000_i1380">. Позначимо середнє арифметичне
<shape id="_x0000_i1381" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image637.wmz» o:><img width=«56» height=«41» src=«dopb206358.zip» v:shapes="_x0000_i1381">
Тоді отримаємо ймовірне співвідношення <shape id="_x0000_i1382" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image638.wmz» o:><img width=«71» height=«31» src=«dopb206648.zip» v:shapes="_x0000_i1382">
Принцип арифметичного середнього показує, що при нескінченній кількості вимірів і відсутності систематичних похибок просте арифметичне середнє наближається до істинного значення.
Це означає, що середнє арифметичне X буде найбільш точним, або ймовірніш значенням виміряної величини.
Як виміри, так і похибки вимірів при дотриманні «комплексу умов» належать нормальному закону розподілу. Тоді і за методом ММП Фішера доведено, що середнє арифметичне буде найбільш близьким до істинного.
Практично число вимірів обмежене, тому і обчислене середнє арифметичне буде випадковою величиною, яка може приймати значення в деякому інтервалі, який залежить від числа вимірів та прийнятої довірчої ймовірності.
2. Середня квадратична похибка окремого виміру
Теоретично мірою точності вимірів є дисперсія <shape id="_x0000_i1383" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image640.wmz» o:><img width=«23» height=«21» src=«dopb206649.zip» v:shapes="_x0000_i1383">. За результатами статистичної обробки рядів вимірів визначають емпіричну (або статистичну) дисперсію m2
За ММП Фішера доведено, що коли статистичний ряд, підкоряється нормальному закону розподілу, ефективною точності є дисперсія
<shape id="_x0000_i1384" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image642.wmz» o:><img width=«109» height=«44» src=«dopb206650.zip» v:shapes="_x0000_i1384">
Оскільки розмірність дисперсії («в квадраті»), то за міру точності приймають емпіричний стандарт або середню квадратичну похибку
<shape id="_x0000_i1385" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image644.wmz» o:><img width=«69» height=«53» src=«dopb206651.zip» v:shapes="_x0000_i1385">
де <shape id="_x0000_i1386" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image646.wmz» o:><img width=«80» height=«24» src=«dopb206652.zip» v:shapes="_x0000_i1386"> - істинні похибки.
Її називають похибкою Гаусса.
Якщо невідоме істинне значення вимірювальної величини, то використовуємо різниці
<shape id="_x0000_i1387" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image648.wmz» o:><img width=«283» height=«25» src=«dopb206653.zip» v:shapes="_x0000_i1387">,
де <shape id="_x0000_i1388" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image650.wmz» o:><img width=«15» height=«19» src=«dopb206360.zip» v:shapes="_x0000_i1388"> - систематична похибка.
Коли число вимірів дорівнює n, із формули отримаємо:
<shape id="_x0000_i1389" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image651.wmz» o:><img width=«77» height=«24» src=«dopb206654.zip» v:shapes="_x0000_i1389">, <shape id="_x0000_i1390" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image653.wmz» o:><img width=«56» height=«21» src=«dopb206655.zip» v:shapes="_x0000_i1390">
Зведемо вираз до квадрату і підсумуємо <shape id="_x0000_i1391" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image655.wmz» o:><img width=«163» height=«24» src=«dopb206656.zip» v:shapes="_x0000_i1391">
Якщо в формулі взяти суму ймовірних похибок V, отримаємо:
<shape id="_x0000_i1392" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image657.wmz» o:><img width=«95» height=«24» src=«dopb206657.zip» v:shapes="_x0000_i1392">
Оскільки середнє арифметичне за формулою дорівнює <shape id="_x0000_i1393" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image659.wmz» o:><img width=«56» height=«41» src=«dopb206658.zip» v:shapes="_x0000_i1393">, то в формулі отримаємо:
<shape id="_x0000_i1394" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image661.wmz» o:><img width=«133» height=«41» src=«dopb206659.zip» v:shapes="_x0000_i1394">
або <shape id="_x0000_i1395" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image663.wmz» o:><img width=«53» height=«21» src=«dopb206660.zip» v:shapes="_x0000_i1395">
Формула використовується і для контролю обчислення ймовірних похибок V.
Тоді формула зведеться до вигляду
<shape id="_x0000_i1396" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image665.wmz» o:><img width=«113» height=«24» src=«dopb206661.zip» v:shapes="_x0000_i1396">
Істинна похибка <shape id="_x0000_i1397" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image667.wmz» o:><img width=«15» height=«19» src=«dopb206360.zip» v:shapes="_x0000_i1397"> простої арифметичної середини обчислюється за формулою:
<shape id="_x0000_i1398" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image668.wmz» o:><img width=«75» height=«21» src=«dopb206361.zip» v:shapes="_x0000_i1398"> або <shape id="_x0000_i1399" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image669.wmz» o:><img width=«53» height=«41» src=«dopb206662.zip» v:shapes="_x0000_i1399">.
<shape id="_x0000_i1400" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image671.wmz» o:><img width=«213» height=«44» src=«dopb206663.zip» v:shapes="_x0000_i1400">
Згідно з четвертою властивістю випадкових похибок
<shape id="_x0000_i1401" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image673.wmz» o:><img width=«123» height=«45» src=«dopb206664.zip» v:shapes="_x0000_i1401">
з врахуванням попередніх формул отримаємо
<shape id="_x0000_i1402" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image675.wmz» o:><img width=«111» height=«44» src=«dopb206665.zip» v:shapes="_x0000_i1402">
Остаточно отримаємо формулу Бесселя для визначення середньої квадратичної похибки виміру за ймовірними похибками
<shape id="_x0000_i1403" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image677.wmz» o:><img width=«77» height=«48» src=«dopb206666.zip» v:shapes="_x0000_i1403">
3. Середня квадратична похибка арифметичної середини
Запишемо <shape id="_x0000_i1404" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image679.wmz» o:><img width=«160» height=«41» src=«dopb206667.zip» v:shapes="_x0000_i1404">
Оскільки виміри рівноточні, тобто <shape id="_x0000_i1405" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image681.wmz» o:><img width=«95» height=«25» src=«dopb206668.zip» v:shapes="_x0000_i1405">, а часткові похідні <shape id="_x0000_i1406" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image683.wmz» o:><img width=«60» height=«45» src=«dopb206669.zip» v:shapes="_x0000_i1406">, то за формулою отримаємо дисперсію середнього арифметичного
<shape id="_x0000_i1407" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image685.wmz» o:><img width=«143» height=«44» src=«dopb206670.zip» v:shapes="_x0000_i1407">
Тоді середня квадратична похибка арифметичного середнього арифметичного буде
<shape id="_x0000_i1408" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image687.wmz» o:><img width=«97» height=«44» src=«dopb206671.zip» v:shapes="_x0000_i1408">
Додатково обчислюють:
4. Середню квадратичну похибку середньої квадратичної похибки
<shape id="_x0000_i1409" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image689.wmz» o:><img width=«116» height=«48» src=«dopb206672.zip» v:shapes="_x0000_i1409">
5. Середню квадратичну похибку середньої квадратичної похибки арифметичного середнього
<shape id="_x0000_i1410" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image691.wmz» o:><img width=«116» height=«48» src=«dopb206673.zip» v:shapes="_x0000_i1410">
Для оцінки точності похибок вимірів використовують інші критерії.
6. Середню похибку <shape id="_x0000_i1411" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image693.wmz» o:><img width=«13» height=«19» src=«dopb206674.zip» v:shapes="_x0000_i1411">, як середнє арифмитичне із суми абсолютних випадкових значень похибок, тобото
<shape id="_x0000_i1412" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image695.wmz» o:><img width=«57» height=«45» src=«dopb206675.zip» v:shapes="_x0000_i1412">
7. Середню похибку r. Її визначають в середині зростаючого ряду складеного із абсолютних значень похибок вимірів. Тоді ймовірність серединної похибки буде
<shape id="_x0000_i1413" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image697.wmz» o:><img width=«93» height=«41» src=«dopb206676.zip» v:shapes="_x0000_i1413">
Середня квадратична похибка виміру m має зв’язок середньою <shape id="_x0000_i1414" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image699.wmz» o:><img width=«13» height=«19» src=«dopb206674.zip» v:shapes="_x0000_i1414"> та серединною r похибками
<shape id="_x0000_i1415" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image700.wmz» o:><img width=«68» height=«21» src=«dopb206677.zip» v:shapes="_x0000_i1415">;
<shape id="_x0000_i1416" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image702.wmz» o:><img width=«68» height=«21» src=«dopb206678.zip» v:shapes="_x0000_i1416">
8. Абсолютні похибки. До них належать: середня квадратична (m), середня квадратична арифметичного середнього (М), середня (<shape id="_x0000_i1417" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image704.wmz» o:><img width=«13» height=«19» src=«dopb206674.zip» v:shapes="_x0000_i1417">), серединна (r), істинна (<shape id="_x0000_i1418" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image705.wmz» o:><img width=«19» height=«24» src=«dopb206454.zip» v:shapes="_x0000_i1418">), ймовірна (Vi) і гранична (<shape id="_x0000_i1419" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image706.wmz» o:><img width=«28» height=«25» src=«dopb206679.zip» v:shapes="_x0000_i1419">)
9. Відносні похибки. Відношення абсолютної похибки до значення виміряної величини називають відносною похибкою.
Назва відносної похибки відповідає назві абсолютної похибки, наприклад:
<shape id="_x0000_i1420" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image708.wmz» o:><img width=«116» height=«41» src=«dopb206680.zip» v:shapes="_x0000_i1420">квадратична відносна похибка;
<shape id="_x0000_i1421" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image710.wmz» o:><img width=«47» height=«41» src=«dopb206681.zip» v:shapes="_x0000_i1421"> - істинна відносна похибка.
<shape id="_x0000_i1422" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image712.wmz» o:><img width=«60» height=«44» src=«dopb206682.zip» v:shapes="_x0000_i1422"> - гранична відносна похибка тощо.
Оцінка точності вимірів за допомогою середніх квадратичних похибок m порівняно з середньою та серединною похибками має переваги:
1. Обгрунтованості: ймовірність <shape id="_x0000_i1423" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image714.wmz» o:><img width=«68» height=«29» src=«dopb206683.zip» v:shapes="_x0000_i1423">, тобто при умовах коли число вимірів прямує до нескінченності, середня квадратична похибка прямує до абсолютного значення стандарту.
2. Ефективності: <shape id="_x0000_i1424" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image716.wmz» o:><img width=«67» height=«21» src=«dopb206684.zip» v:shapes="_x0000_i1424">, тобто значення дисперсії буде мінімальним.
3. На величину середньої квадратичної похибки m вплив більших за абсолютним значенням похибок <shape id="_x0000_i1425" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image718.wmz» o:><img width=«40» height=«27» src=«dopb206685.zip» v:shapes="_x0000_i1425"> найбільший.
4. Середня квадратична похибка m зв’язана з граничною похибкою відношенням
<shape id="_x0000_i1426" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image720.wmz» o:><img width=«75» height=«29» src=«dopb206686.zip» v:shapes="_x0000_i1426">,
де t – вибирається із таблиць розподілу Лапласа або Стюдента залежить від надійної ймовірності p та кількості вимірів n.
5. Середня квадратична похибка визначається достатньо надійно при обмеженій кількості вимірів.
4. Числові характеристики нерівноточних вимірів
В практиці геодезичних вимірювань може відчутно порушуватися «комплекс умов»: виміри виконують приладами різної точності або різними методами, значно змінюються зовнішні умови (температура, вологість тощо) чи інші чинники. Тоді дисперсії таких вимірів значно відрізняються між собою (<shape id="_x0000_i1427" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image722.wmz» o:><img width=«59» height=«27» src=«dopb206687.zip» v:shapes="_x0000_i1427">) і їх називають нерівноточиними. Нерівноточні виміри можна виразити статистичним рядом
<img width=«14» height=«74» src=«dopb206688.zip» v:shapes="_x0000_s1034">
<shape id="_x0000_i1428" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image725.wmz» o:><img width=«68» height=«24» src=«dopb206689.zip» v:shapes="_x0000_i1428">,
<shape id="_x0000_i1429" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image727.wmz» o:><img width=«81» height=«25» src=«dopb206690.zip» v:shapes="_x0000_i1429"> (<shape id="_x0000_i1430" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image729.wmz» o:><img width=«64» height=«27» src=«dopb206691.zip» v:shapes="_x0000_i1430">)
Задача виникає, коли за результатами нерівноточних вимірів однієї і тієї величини необхідно визначити найбільш надійне значення виміряної величини і виконати оцінку точності вимірів за допомогою числових характеристик.
В теорії похибок вимірів до числових характеристик нерівноточних вимірів відноситься:
1. Вага вимірів. Розглянемо статистичний ряд нерівноточних вимірів, який будемо характеризувати емпіричними дисперсіями <shape id="_x0000_i1431" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image731.wmz» o:><img width=«23» height=«24» src=«dopb206692.zip» v:shapes="_x0000_i1431">
<img width=«14» height=«74» src=«dopb206693.zip» v:shapes="_x0000_s1035"><shape id="_x0000_i1432" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image725.wmz» o:><img width=«68» height=«24» src=«dopb206689.zip» v:shapes="_x0000_i1432">,
<shape id="_x0000_i1433" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image734.wmz» o:><img width=«84» height=«25» src=«dopb206694.zip» v:shapes="_x0000_i1433"> <shape id="_x0000_i1434" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image736.wmz» o:><img width=«65» height=«27» src=«dopb206695.zip» v:shapes="_x0000_i1434">)
Введемо величини — <shape id="_x0000_i1435" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image738.wmz» o:><img width=«28» height=«45» src=«dopb206696.zip» v:shapes="_x0000_i1435">, обернено пропорційні квадратам середніх квадратичних похибок (емпіричних дисперсій ) і позначимо
<shape id="_x0000_i1436" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image740.wmz» o:><img width=«57» height=«45» src=«dopb206697.zip» v:shapes="_x0000_i1436">
де С — постійний умовно прийнятий коефіцієнт такої величини, щоб значення ваги рі було ближче до одиниці.
Величину рі називають вагами нерівноточних вимірів. Тоді нерівноточні виміри можна характеризувати статистичним рядом
<shape id="_x0000_i1437" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image725.wmz» o:><img width=«68» height=«24» src=«dopb206689.zip» v:shapes="_x0000_i1437">,
<img width=«14» height=«74» src=«dopb206698.zip» v:shapes="_x0000_s1036"><shape id="_x0000_i1438" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image743.wmz» o:><img width=«79» height=«25» src=«dopb206699.zip» v:shapes="_x0000_i1438"> <shape id="_x0000_i1439" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image745.wmz» o:><img width=«63» height=«27» src=«dopb206700.zip» v:shapes="_x0000_i1439">)
Якщо дисперсія є мірою абсолютної точності результату, то вага є мірою відносної точності.
Вага вказує наскільки точність одного виміру більш або менш точна відносно іншого в ряду вимірів.
Практично в більшості випадків невідома дисперсія <shape id="_x0000_i1440" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image747.wmz» o:><img width=«23» height=«25» src=«dopb206424.zip» v:shapes="_x0000_i1440"> або середня квадратична похибка вимірів m. Ваги вимірів обчислюють за наближеними формулами
<shape id="_x0000_i1441" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image748.wmz» o:><img width=«55» height=«45» src=«dopb206701.zip» v:shapes="_x0000_i1441">;
<shape id="_x0000_i1442" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image750.wmz» o:><img width=«59» height=«45» src=«dopb206702.zip» v:shapes="_x0000_i1442">;
<shape id="_x0000_i1443" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image752.wmz» o:><img width=«55» height=«47» src=«dopb206703.zip» v:shapes="_x0000_i1443">,
де Li – довжина лінії, ходу або полігону;
Ni – кількість виміряних величин;
ni – кількість вимірів однієї і тієї величини (число прийомів).
Аналогічно коефіцієнт С вибирають так, щоб ваги pi за величиною були близькі до одиниці для зручності обчислень.
В практичних розрахунках часто використовують приведені ваги
<shape id="_x0000_i1444" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image754.wmz» o:><img width=«60» height=«45» src=«dopb206704.zip» v:shapes="_x0000_i1444">,
де <shape id="_x0000_i1445" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image756.wmz» o:><img width=«147» height=«24» src=«dopb206705.zip» v:shapes="_x0000_i1445">, тоді <shape id="_x0000_i1446" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image758.wmz» o:><img width=«51» height=«21» src=«dopb206706.zip» v:shapes="_x0000_i1446">
Ряд нерівноточних вимірів можна звести до рівноточного, якщо кожен вимір помножити на величину <shape id="_x0000_i1447" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image760.wmz» o:><img width=«33» height=«28» src=«dopb206707.zip» v:shapes="_x0000_i1447">. Статистичний ряд
<shape id="_x0000_i1448" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image762.wmz» o:><img width=«51» height=«27» src=«dopb206708.zip» v:shapes="_x0000_i1448"> <shape id="_x0000_i1449" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image764.wmz» o:><img width=«55» height=«27» src=«dopb206709.zip» v:shapes="_x0000_i1449">..., <shape id="_x0000_i1450" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image766.wmz» o:><img width=«51» height=«28» src=«dopb206710.zip» v:shapes="_x0000_i1450"> - буде рівноточним.
2. Загальне середнє арифметичне
Припустимо, що в результаті вимірів однієї величини отримано статистичний ряд нерівноточних результатів
<img width=«14» height=«74» src=«dopb206711.zip» v:shapes="_x0000_s1037"><shape id="_x0000_i1451" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image769.wmz» o:><img width=«75» height=«24» src=«dopb206712.zip» v:shapes="_x0000_i1451">
<shape id="_x0000_i1452" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image771.wmz» o:><img width=«89» height=«25» src=«dopb206713.zip» v:shapes="_x0000_i1452">(<shape id="_x0000_i1453" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image773.wmz» o:><img width=«60» height=«27» src=«dopb206419.zip» v:shapes="_x0000_i1453">)
Найкращі оцінки отримують тоді, коли виміри х1, або їх похибки <shape id="_x0000_i1454" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image774.wmz» o:><img width=«20» height=«23» src=«dopb206714.zip» v:shapes="_x0000_i1454">, підкоряються нормальному закону розподілу. Перейдемо до нормованих похибок
<shape id="_x0000_i1455" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image776.wmz» o:><img width=«115» height=«47» src=«dopb206715.zip» v:shapes="_x0000_i1455">; <shape id="_x0000_i1456" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image778.wmz» o:><img width=«145» height=«47» src=«dopb206716.zip» v:shapes="_x0000_i1456">; <shape id="_x0000_i1457" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image780.wmz» o:><img width=«125» height=«47» src=«dopb206717.zip» v:shapes="_x0000_i1457">
де X- істинне значення вимірюваної величини.
Функція щільності нормованого нормального закону розподілу визначається за формулою
<shape id="_x0000_i1458" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image782.wmz» o:><img width=«112» height=«48» src=«dopb206718.zip» v:shapes="_x0000_i1458">
Числові характеристики визначаються за результатами всіх вимірів. Тоді функція щільності сумісного розподілу ряду випадкових величин <shape id="_x0000_i1459" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image784.wmz» o:><img width=«59» height=«24» src=«dopb206719.zip» v:shapes="_x0000_i1459"> буде
<shape id="_x0000_i1460" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image786.wmz» o:><img width=«199» height=«53» src=«dopb206720.zip» v:shapes="_x0000_i1460">
Найбільш надійне значення шуканого параметра t для нерівноточних вимірів буде відповідати максимальному значенню функції <shape id="_x0000_i1461" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image788.wmz» o:><img width=«88» height=«24» src=«dopb206721.zip» v:shapes="_x0000_i1461">. Із формули видно, що це відбудеться за умови, коли показник степеня буде мінімальним, тобто
<shape id="_x0000_i1462" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image790.wmz» o:><img width=«228» height=«45» src=«dopb206722.zip» v:shapes="_x0000_i1462">
З врахуванням попередньої формули отримаємо
<shape id="_x0000_i1463" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image792.wmz» o:><img width=«323» height=«48» src=«dopb206723.zip» v:shapes="_x0000_i1463">
Для визначення екстремуму функції візьмемо першу похідну за перемінними х1, прирівняємо до нуля і отримаємо
<shape id="_x0000_i1464" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image794.wmz» o:><img width=«236» height=«47» src=«dopb206724.zip» v:shapes="_x0000_i1464">
Умовно помножимо їх на довільне число С, отримаємо <shape id="_x0000_i1465" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image796.wmz» o:><img width=«163» height=«47» src=«dopb206725.zip» v:shapes="_x0000_i1465">
Оскільки <shape id="_x0000_i1466" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image798.wmz» o:><img width=«60» height=«45» src=«dopb206420.zip» v:shapes="_x0000_i1466">, то отримаємо
<shape id="_x0000_i1467" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image799.wmz» o:><img width=«104» height=«21» src=«dopb206726.zip» v:shapes="_x0000_i1467">
Ймовірно <shape id="_x0000_i1468" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image801.wmz» o:><img width=«91» height=«44» src=«dopb206727.zip» v:shapes="_x0000_i1468"> Це означає, що частка <shape id="_x0000_i1469" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image803.wmz» o:><img width=«35» height=«44» src=«dopb206728.zip» v:shapes="_x0000_i1469"> при необмеженій кількості вимірів прямує до істинного значення. Його називають загальним середнім арифметичним
<shape id="_x0000_i1470" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image805.wmz» o:><img width=«65» height=«44» src=«dopb206729.zip» v:shapes="_x0000_i1470">
або <shape id="_x0000_i1471" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image807.wmz» o:><img width=«188» height=«47» src=«dopb206730.zip» v:shapes="_x0000_i1471">
В разі рівноточних вимірів <shape id="_x0000_i1472" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image809.wmz» o:><img width=«140» height=«24» src=«dopb206731.zip» v:shapes="_x0000_i1472">. Тоді формула <shape id="_x0000_i1473" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image805.wmz» o:><img width=«65» height=«44» src=«dopb206729.zip» v:shapes="_x0000_i1473"> зводиться до простої арифметичної середини <shape id="_x0000_i1474" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image811.wmz» o:><img width=«56» height=«41» src=«dopb206358.zip» v:shapes="_x0000_i1474">, тому цю формулу і називають загальною середньою арифметичною.
3. Середня квадратична похибка одиниці ваги
Нерівноточні виміри характеризують дисперсіями <shape id="_x0000_i1475" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image812.wmz» o:><img width=«23» height=«25» src=«dopb206424.zip» v:shapes="_x0000_i1475">або мірою відносної точності pi. Умовно із ряду нерівноточних вимірів виберемо результат такого виміру xk, вага якого буде дорівнювати одиниці, тобто <shape id="_x0000_i1476" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image813.wmz» o:><img width=«45» height=«24» src=«dopb206732.zip» v:shapes="_x0000_i1476">. Дисперсію цього результату позначимо через <shape id="_x0000_i1477" type="#_x0000_t75" o:ole=""><imagedata src=«42413.files/image815.wmz» o:><img width=«21» height=«24» src=«dopb206733.zip» v:shapes="_x0000_i1477"> . Тоді
продолжение
--PAGE_BREAK--
еще рефераты
Еще работы по математике
Реферат по математике
Системи нелінійних рівнянь
20 Июня 2015
Реферат по математике
Системы счисления и основы двоичных кодировок
2 Сентября 2013
Реферат по математике
ТИПИЧНЫЕ ДЕФЕКТЫ В КРИПТОГРАФИЧЕСКИХ ПРОТОКОЛАХ
2 Сентября 2013
Реферат по математике
Нестандартные задачи по математике
2 Сентября 2013