Реферат: Дослідження розвитку теорії ймовірності

--PAGE_BREAK--1. Динаміка розвитку поняття ймовірності1.1 Перші спроби введення поняття ймовірності


Розглянемо, як розвивалося поняття ймовірності.

Д. Кардано (1501–1576 р.) у своїй роботі «Книги про гру в кості» впритул підійшов до визначення поняття ймовірності через відношення рівно можливих подій [1].

«Отже, є одне загальне правило для розрахунку: необхідно врахувати загальне число можливих випадань і число способів, якими можуть з'явитися дані випадання, а потім знайти відношення останнього числа до числа можливостей, що залишилися, випадань; приблизно в такій же пропорції визначаються відносні розміри ставок для того, щоб гра йшла на рівних умовах».

Кардано в цьому уривку говорить, що якщо можливе число випробувань дорівнює n, а число сприятливих випробувань – m, те ставки повинні бути у відношенні <img border=«0» width=«44» height=«41» src=«ref-1_1802791775-159.coolpic» v:shapes="_x0000_i1025"> (мова йде про поділ ставки, тому що вчених того часу дуже хвилював це питання, багато хто з них намагалися вирішувати цю задачу).

У роботах Л. Пачоли, Н. Тарталья робиться спроба виділити нове поняття ймовірності – відношення шансів – при рішенні ряду специфічних задач, насамперед комбінаторних.

Треба відзначити, що поняттям імовірності активно користувалися вчені того часу, не визначаючи його а розуміючи його інтуїтивно. Паскаль і Ферма в листах один одному використовували поняття ймовірності в схованій формі, не визначає його в конкретне визначення.

Гюйгенс (1629–1695 р.) у своїй книзі «Про розрахунки в азартних іграх» виділив поняття «шанс», що по суті, є ще не дуже усвідомлене поняття ймовірності [2]. У введенні Гюйгенс пише: «Хоча в іграх, заснованих на чистому випадку, результати є невідомими, однак шанс гравця на виграш, або на програш має певну вартість. Наприклад, якщо хто-небудь тримає парі, що він викине при першому киданні однієї кістки шість очка, те невідомо, чи виграє він або програє, але що є певним вирахуванням це те, наскільки його шанси програти парі перевершують його шанси на виграш парі».

Т. Байес (1702–1761 р.) у своїй роботі, опублікованої в «Філософських працях» за 1763 р. Р. Прайсом за назвою «Досвід рішення задачі по теорії ймовірностей покійного високоповажного містера Байеса, члена Королівського суспільства, повідомлено містером Прайсом у листах Джонові Кентону, магістрові мистецтв, члену Королівського суспільства» увів поряд з іншими визначеннями й визначення поняття ймовірності. Байес формулює наступні визначення.

1. Кілька подій є несумісними, якщо настання одного з них виключає настання інших.

2. Події, що виключають друг друга, якщо одне з них повинне наступити, але обоє одночасно наступити не можуть.

3. Говорять, що подія не відбулася, якщо воно не наступає або, якщо наступає подія, що виключає.

4. Говорять, що подія визначена, якщо воно наступило або не наступило.

5. Імовірність якої-небудь події є відношення значення, що дається очікуванню, пов'язаному з настанням події, і значення очікуваної в цьому випадку прибутку.

6. Під шансом я розумію те ж саме, що й під імовірністю.

7. Події є незалежними, якщо настання одного не зменшує й не збільшує ймовірності інших [1,2].

Деякі із цих визначень, наприклад 1 і 7, майже повністю збігаються із сучасними. Визначення ж імовірності не відрізняється ясністю, можливо тому, що у формулюванні використовується невизначене поняття: «значення очікування, пов'язаного з настанням події».

У другому розділі своєї роботи Байес користується геометричним визначенням імовірності в його сучасному змісті (не визначаючи його), вирішуючи задачу про кидання кулі W на квадратну дошку ABCD

На AB беруться дві будь-які крапки f і b і через них C F s L D проводяться лінії, паралельні AD до перетинання з CD у крапках F і L. Після цього Байес формулює наступну лему.

Лема.

Імовірність того, що крапка O (крапка зупинки OO кулі) буде перебувати між двома якими-небудь крапками лінії AB, є відношення відстані між двома крапками до всієї лінії AB.

Інакше кажучи, імовірність того, що куля, кинута випадковим образом на ABCD, зупиниться в прямокутнику bfFL, дорівнює <img border=«0» width=«32» height=«47» src=«ref-1_1802791934-173.coolpic» v:shapes="_x0000_i1026">. Аналогічно ми обчислюємо геометричним способом імовірність і зараз, як відношення мер.
P(A)=<img border=«0» width=«48» height=«51» src=«ref-1_1802792107-502.coolpic» v:shapes="_x0000_i1027">, (<img border=«0» width=«56» height=«23» src=«ref-1_1802792609-322.coolpic» v:shapes="_x0000_i1028"> ) – імовірнісний простір,
-<img border=«0» width=«17» height=«20» src=«ref-1_1802792931-176.coolpic» v:shapes="_x0000_i1029">клас або сімейство підмножин в <img border=«0» width=«27» height=«25» src=«ref-1_1802793107-116.coolpic» v:shapes="_x0000_i1030">,

-<img border=«0» width=«19» height=«19» src=«ref-1_1802793223-185.coolpic» v:shapes="_x0000_i1031">область в <img border=«0» width=«27» height=«25» src=«ref-1_1802793107-116.coolpic» v:shapes="_x0000_i1032">,

P-Імовірність.

Але в Байеса не було визначення геометричної ймовірності.

Кондорсе (1743–1794 р.), відомий політичний і суспільний діяч буржуазної французької революції, займався питаннями теорії ймовірностей. У своїй роботі «Suite du Memoire sur le calcul des Probabilites» Кондорсе намагався поряд з імовірністю ввести поняття «властиво ймовірність» [1,2].

«Не слід розуміти під властиво ймовірністю події відношення числа сполучень, що мають місце, до загального числа сполучень. Наприклад, якщо з 10 карт витягає одна карта й свідок говорить, що це була саме така-те карта, те властиво ймовірність цієї події, яку потрібно зіставити з імовірністю що народжується зі свідчення, що буде <img border=«0» width=«24» height=«48» src=«ref-1_1802793524-237.coolpic» v:shapes="_x0000_i1033">, а є ймовірність достати цю карту переважно, чим іншу яку-небудь певну карту, і тому що всі ці ймовірності однакові, те властиво ймовірність буде в цьому випадку <img border=«0» width=«17» height=«47» src=«ref-1_1802793761-197.coolpic» v:shapes="_x0000_i1034">…

У випадку, коли витягає одна з десяти карт, число сполучень, при яких витягає яка-небудь певна карта, є одиниця й число сполучень, при яких буде витягнута яка-небудь інша певна карта, теж є одиниця, виходить, властиво ймовірність виразиться –<img border=«0» width=«17» height=«47» src=«ref-1_1802793761-197.coolpic» v:shapes="_x0000_i1035"> .»

Поняття властиво ймовірності необґрунтовано. Його протиставлення поняттю ймовірності чисто суб'єктивне й математично нічим не підтверджено. Можливо саме тому в науці воно не збереглося.

До XVIII в. поняття ймовірності вже дуже активно використовувалося при рішенні різних задач.

Л. Ейлер (1707–1783 р.), досліджуючи різні лотереї, які пропонували Прусському королю Фрідріху II для поповнення скарбниці держави, користувався саме класичним визначенням імовірності.


    продолжение
--PAGE_BREAK--1.2 Поява класичного визначення поняття ймовірності


П. Лаплас (1749–1827 р.) у своїх лекціях за назвою «Досвід філософії теорії ймовірностей» уводив наступне класичне визначення ймовірності: імовірність P(A) події A рівняється відношенню числа можливих результатів випробування, які сприяють події A, до числа всіх можливих результатів випробування. У цьому визначенні передбачається, що окремі можливі результати випробування рівно можливі [1,2].

Цьому визначенню ймовірності Лаплас додав суб'єктивний зміст, увівши принцип недостатності або відсутності підстав. Цей принцип полягає в тому, що якщо ймовірність події невідома, то ми для її значення призначаємо деяке число, що нам представляється розумним. У випадку, якщо ми маємо кілька подій, які становлять повну систему, але не знаємо ймовірності кожної події окремо, то ми вважаємо, що всі ці події рівно можливі.

Магістр філософії Сигізмунд (Зигизмунт) Ревковський (1807–1893 р.) в 1829/30 р. уперше в Росії став читати курс теорії ймовірностей. Імовірність він називав мірою надії, величиною надії й давав їй класичне визначення.

Н.И. Лобачевский серйозно займався теорією ймовірностей. У своїй роботі «Нові початки геометрії з повною теорією паралельних» він визначає ймовірність, випливаючи Лапласові: «під словами ймовірність розуміють зміст числа добрих нагод до числа всіх випадків разом». Рівно можливість випадків, мабуть, малася на увазі Лобачевским.

Професор математики Московського університету Зернов Н.Е. (1804–1862)

у своїй мові «Теорія ймовірностей, з додатком переважно до смертності й страхування», що була видана в 1843 р., увів визначення ймовірності (<img border=«0» width=«53» height=«48» src=«ref-1_1802794155-187.coolpic» v:shapes="_x0000_i1036"> ) і цікаве визначення поняття відносної ймовірності.

«Імовірність подій, розглянутих у такому виді, начебто інші події зовсім не мали місця, називається ймовірністю відносного. Відносна ймовірність якої-небудь події дорівнює частці, що пішла від ділення самостійної ймовірності тієї ж події на суму цієї останньої ймовірності й протилежної їй, також самостійної».

Це визначення супроводжується прикладом. У посудині є 3 червоних, 1 чорний, 2 білих кулі. Імовірність витягтися червона куля <img border=«0» width=«61» height=«48» src=«ref-1_1802794342-339.coolpic» v:shapes="_x0000_i1037">; <img border=«0» width=«65» height=«48» src=«ref-1_1802794681-351.coolpic» v:shapes="_x0000_i1038">; <img border=«0» width=«72» height=«48» src=«ref-1_1802795032-336.coolpic» v:shapes="_x0000_i1039">– це всі ймовірності самостійні. Тримають парі щодо появи білої або чорної кулі, не обертаючи уваги на червоні. Імовірність виграти парі на білій кулі – <img border=«0» width=«17» height=«48» src=«ref-1_1802795368-214.coolpic» v:shapes="_x0000_i1040">, на чорному –<img border=«0» width=«16» height=«48» src=«ref-1_1802795582-193.coolpic» v:shapes="_x0000_i1041">.

теорія ймовірність математичне очікування

Це, по Зернову, відносні ймовірності. Для них справедливі співвідношення:
<img border=«0» width=«121» height=«48» src=«ref-1_1802795775-634.coolpic» v:shapes="_x0000_i1042">; <img border=«0» width=«120» height=«48» src=«ref-1_1802796409-601.coolpic» v:shapes="_x0000_i1043">.
Навіть на цьому прикладі видно, що поняття відносної ймовірності зайво (можна розглядати, що в урні тільки 2 білих і 1 чорна куля).

Великим представником російської теорії ймовірностей був М.В. Остроградський. У своїй статті «Про страхування», опублікованої в журналі «Фінський вісник» в 1847 р., Остроградьский трактує поняття ймовірності із суб'єктивних позицій, як міру впевненості суб'єкта, що пізнає, [1].

Він докладно говорить про те, що ймовірність є міра нашого незнання, що це суб'єктивне поняття, що в імовірності в суб'єктивному світі немає ніякої відповідності, що увесь світ детерминистичен і випадкового в ньому ні, є тільки те, що ми не знаємо або не пізнали, що ми й називаємо випадковим.

«Якщо явище зовсім залежить від декількох інших явищ або випадків, з яких одні можуть його зробити, інші йому противні, і якщо притім всі ці випадки такі, що для нас, ми повторюємо, для нас, немає причини одні з них воліти іншим, то ймовірність очікуваного явища виміряється дробом, який чисельник дорівнює числу випадків, що доставляють явище, – а знаменник числу всіх випадків». Це твердження збігається з так званим класичним визначенням Лапласа із тлумаченням рівної можливості, як недостатності підстав давати перевага одним подіям перед іншими. Розглядається приклад. В урні перебуває 5 куль (3 білих і 2 чорних), з її витягає одну кулю. Яка ймовірність, що ця куля буде білим? Щодо цього приклада Остроградський пише: «П'ять куль перебувають у вазі; немає ніякої причини думати, що один з них потрапить у руку скоріше, ніж іншої. Говорячи, немає ніякої причини, розуміємо, що її немає для нас, – вона є, але зовсім нам невідома.… І як ми не можемо дати одній кулі перевага перед іншим, те всі кулі представляють для нас випадки рівно можливі. Той, хто знав би розташування куль в урні й міг би обчислити рух руки, що виймає, той сказав би наперед, який саме вийде куля, — для нього не було б імовірності.

Якби для нас, справді, не було причин вийняти такий-то куля, а не інший, тоді поява кулі бути б дійсно неможливо, як неможлива дія без причини.

Ми повторюємо, що ймовірність і однакова можливість випадків, і міра ймовірності існують тільки для нас. Для істот же всевідаючих, тобто відомості, що має всі, про всі явища, імовірність не може мати не тільки міри, але й ніякого значення.

Це висловлення є типовим висловленням у дусі механічного детермінізму, що був у той час широко розповсюджений у теорії ймовірностей.


    продолжение
--PAGE_BREAK--1.3 Перші спроби введення аксіоматичного визначення поняття ймовірності


П.Л. Чебишев (1821–1894 р.) був творцем і ідейним керівником петербурзької математичної школи. Чебишев зіграв велику роль у розвитку багатьох розділів математики, у тому числі теорії ймовірностей. У своїй магістерській дисертації в першому розділі він уводить поняття ймовірності. Для цього він, насамперед, визначає рівно можливі події: «Якщо з певного числа різних подій при відомих обставинах один необхідно повинне трапитися, і немає особливої причини очікувати якого-небудь із цих подій переважно перед іншими, те такі події відрізняємо назвою випадків рівно можливих». Не можна сказати, щоб це визначення було досить чітке.

Якщо з n випадків m мають як наслідок деяка подія, то мірою ймовірності цієї події, що називають імовірним, приймають <img border=«0» width=«21» height=«48» src=«ref-1_1802797010-134.coolpic» v:shapes="_x0000_i1044">, тобто «відношення числа рівно можливих випадків, сприятливих для події, до числа всіх рівно можливих випадків».

А.А. Марков (1856–1922 р.) був найближчим учнем і кращим виразником ідей Чебишева. У своїй роботі «Вирахування ймовірностей» Марков давав класичне визначення ймовірності, але до визначення рівної можливості («Дві події ми називаємо рівно можливими, якщо немає ніяких підстав очікувати одного з них переважно перед іншим. Кілька подій ми називаємо рівно можливими, якщо кожні два з них рівно можливі») він робив наступну примітку: «На мою думку, різні поняття визначаються не стільки словами, кожне з яких може, у свою чергу, зажадати визначення, як нашим відношенням до них, що з'ясовується поступово». Визначення поняття ймовірності виглядає так:

«Імовірністю події називається дріб, чисельник якої представляє число рівно можливих випадків, сприятливих цій події, а знаменник-число всіх рівно можливих випадків, що відповідають питанню».[1,2]

У своїй книзі «Теорія ймовірностей» С.Н. Бернштейн спробував увести визначення поняття ймовірності аксіоматичним способом.

З аксіоми порівняння ймовірностей і аксіоми про несумісні події Бернштейн робить наступний висновок: «Якщо події X сприяють m випадків із загального числа всіх n єдино можливих, несумісних і рівно можливих випадків, то ймовірність події X залежить тільки від чисел m і n (а не від природи розглянутого досвіду), тобто ймовірність X=F (m, n), де F (m, n) є деяка певна функція».


Але, цим аксіомам задовольняє тільки функція виду F(<img border=«0» width=«21» height=«48» src=«ref-1_1802797010-134.coolpic» v:shapes="_x0000_i1045"> ), причому-це зростаюча функція дробу <img border=«0» width=«21» height=«48» src=«ref-1_1802797010-134.coolpic» v:shapes="_x0000_i1046">. Будь-яку таку функцію F(<img border=«0» width=«21» height=«48» src=«ref-1_1802797010-134.coolpic» v:shapes="_x0000_i1047"> ) можна прийняти за ймовірність X. Загальноприйняте вважати F(<img border=«0» width=«21» height=«48» src=«ref-1_1802797010-134.coolpic» v:shapes="_x0000_i1048"> )=<img border=«0» width=«21» height=«48» src=«ref-1_1802797010-134.coolpic» v:shapes="_x0000_i1049">. Це і є ймовірність події X у висловлених умовах, а точніше класичне визначення ймовірності.

Із упевненістю можна сказати, що визначення поняття ймовірності лежить в основі будь-якої аксіоматичної системи теорії ймовірностей. На недоліки класичного визначення ймовірності вказували давно. Були видні й недоліки суб'єктивного трактування ймовірності, що йде від Лапласа. Критикові цих недоліків зустрічали доброзичливо. Найбільш широке поширення одержали роботи в цьому напрямку німецького вченого Р. Мизеса (1883–1953 р.), що з гітлерівської Німеччини емігрував у США, де він очолив Інститут прикладної математики. Мизес є засновником так званої частотної концепції в теорії ймовірностей.

Основним поняттям у частотній теорії Мизеса є поняття колективу. Під колективом розуміється нескінченна послідовність k-однакових спостережень, кожне з яких визначає деяку крапку, що належить заданому простору <img border=«0» width=«17» height=«19» src=«ref-1_1802797814-96.coolpic» v:shapes="_x0000_i1050"> кінцевого числа вимірів. Говорити про ймовірність, по Мизесу, можна тільки тоді, коли існує ця певна сукупність подій. Колектив, по Мизесу, "… повинен задовольняти наступним двом вимогам:

відносні частоти появи певної події в послідовності незалежних випробувань мають певні граничні значення;

граничні значення, про які говориться в першій вимозі, залишаються незмінними, якщо із всієї послідовності вибрати будь-яку підпослідовність.

Взявши за основу той факт, що ймовірність і частота — зв'язані між собою величини, Мизес визначає ймовірність як граничне значення частоти: «Обґрунтоване припущення, що відносна частота появи кожного одиничного спостережуваної ознаки прагне до певного граничного значення. Це граничне значення ми називаємо ймовірністю».

Але насправді ніякого обґрунтованого припущення в нас немає. Ми ніколи не можемо знати, чи має дана частота чи межа ні, хоча б уже тому, що для цього довелося б зробити нескінченне число досвідів. Це визначення неспроможне математично, тому що ми не можемо вказати функціональної залежності між кількістю випробувань n і частотою появи подій <img border=«0» width=«20» height=«41» src=«ref-1_1802797910-124.coolpic» v:shapes="_x0000_i1051">, де m-кількість появ події, а, не вказавши такої залежності, ми не можемо обчислити межу, <img border=«0» width=«55» height=«43» src=«ref-1_1802798034-315.coolpic» v:shapes="_x0000_i1052">, що прийнята за ймовірність.

Найбільші представники теорії ймовірностей ніколи не були прихильниками частотної школи, а прихильники цієї школи не одержали істотних результатів у теорії ймовірностей.

Спроб обґрунтувати теорію ймовірностей було досить багато. Наприклад, італійський математик Б. Финетті висунув суб'єктивне тлумачення ймовірності. Таким підходом до ймовірності він намагався перебороти протиріччя, які виникли й у класичній теорії ймовірностей і в частотній школі Мизеса. По Финетті ймовірність є чисто суб'єктивною величиною. Кожна людина по-своєму оцінює ймовірність тієї або іншої події.

Трохи пізніше Джеффрис розробляв поняття ймовірності як ступеня правдоподібності. Уперше ця концепція була висунута Кейнесом в 1921 р. По цій теорії кожна пропозиція має певну ймовірність. Ймовірностям такого роду не можна дати частотної інтерпретації. Розробка теорії ступенів правдоподібності триває деякими математиками й у наші дні.


    продолжение
--PAGE_BREAK--1.4 Поява аксіоматичного визначення поняття ймовірності


На сьогоднішній день закріпилося визначення поняття ймовірності дане А.Н. Колмогоровим у книзі «Основні поняття теорії ймовірностей» (1933 р.) аксіоматично.

Уже були розкриті глибокі аналогії між поняттями теорії ймовірностей і поняттями метричної теорії функцій. Були встановлені аналогії між множиною й подією, мірою множини й імовірністю події, інтегралом і математичним очікуванням і ін.

Виникла потреба в теорії ймовірностей виходячи з уявлень, що й було виконано в книзі Колмогорова. Після цієї аксиоматизації теорія ймовірностей зайняла рівноправне місце серед інших математичних дисциплін.

Розглянемо аксіоматику Колмогорова.

Нехай є спостереження або випробування, які хоча б теоретично допускають можливість необмеженого повторення. Кожне окреме випробування може мати той або інший результат залежно від випадку. Сукупність всіх цих можливих рішень утворить множина E, що є першим основним поняттям аксіоматики. Це множина E називається множиною елементарних подій. Що із себе представляють події, що є елементами цієї множини, для подальшої логічної побудови зовсім байдуже, як байдуже для аксіоматичної побудови геометрії, що ми будемо розуміти під словами «крапка», «пряма» і т.п. Тільки після такої аксіоматичної побудови теорія ймовірностей допускає різні інтерпретації, у тому числі й не зв'язані з випадковими подіями. Будь-яка підмножина множини E, тобто будь-яку сукупність можливих рішень, називають подією. Або іншими словами: випадковими подіями називаються елементи множини F підмножин з E. Далі розглядаються не всі події, а тільки деяке тіло подій. Теорія ймовірностей займається тільки тими подіями, частота яких стійка. Це положення в аксіоматичній теорії Колмогорова формалізується таким чином, що кожній події, що ми розглядаємо, ставиться у відповідність деяке позитивне число, що називається ймовірністю даної події. При цьому абстрагуються від усього того, що допомагало сформулювати це поняття, наприклад, від частоти. Це дає можливість інтерпретувати ймовірність не тільки імовірнісним способом. Тим самим значно розширюються можливості ймовірностей.

Сформулюємо аксіоми Колмогорова [1,5]. Якщо випадкові події A і B входять до складу F, то події A або B, A і B, не A і не B також утримуються в F. F містить як елементи множина E і всі окремі його елементи.


Кожному елементу A з F поставлено у відповідність ненегативне речовинне число P(A), називане ймовірністю події A.


P(E)=1.

Якщо A і B не перетинаються й належать F, то P (A+B)=P(A)+P(B). Для нескінченних множин F є ще одна аксіома, що для кінцевих множин є наслідком п'яти наведених аксіом.


Якщо перетинання послідовності подій <img border=«0» width=«191» height=«24» src=«ref-1_1802798349-280.coolpic» v:shapes="_x0000_i1053"> порожньо, то <img border=«0» width=«97» height=«29» src=«ref-1_1802798629-248.coolpic» v:shapes="_x0000_i1054">.

Аксіоматика Колмогорова сприяла тому, що теорія ймовірностей остаточно зміцнилася як повноправна математична дисципліна.

Простеживши динаміку розвитку й формування поняття ймовірності можна зробити висновок, що воно вироблялося складними шляхами. Математики й філософи, політики й просто захоплені теорією ймовірностей учені намагалися наділити поняття ймовірності в конкретну форму. Даючи правильні й помилкові визначення поняттю ймовірності, вони маленькими кроками просувалися до вірного рішення цього питання. Але навіть у добре й правильно сформульованих варіантах класичного визначення ймовірності можна виявити пробіли й недогляди. Наприклад, майже у всіх даних варіантах класичного визначення відсутнє умова кінцівки числа рівно можливих подій, тобто умова, що <img border=«0» width=«43» height=«15» src=«ref-1_1802798877-118.coolpic» v:shapes="_x0000_i1055">. Можливо ця умова не обмовлялася, але малося на увазі. З побудовою системи аксіом для визначення поняття ймовірності задача деякої неспроможності класичного визначення ймовірності була вирішена. Однак спостерігаються спроби дати трактування ймовірності з більше широких позицій, у тому числі й з позицій теорії інформації.

2. Динаміка розвитку поняття математичного очікування2.1 Передумови введення поняття математичного очікування


Одним з перших наблизився до визначення поняття математичного очікування Д. Кардано у своїй роботі «Книга про гру в кості». Він визначив умови необразливої гри, які можна побачити на наступному прикладі Кардано: кидаються дві гральні кістки. «Якщо, стало бути, хто-небудь заявить, що він бажав би одержати 1, 2 або 3, то ти знаєш, що для цього є 27 шансів, а тому що вся серія складається з 36, то залишається 9 кидань, у яких ці числа окулярів не випадуть; таким чином, ці числа будуть перебувати в потрійному відношенні. Отже, при чотирьох киданнях три випадання будуть сприятливі 1, 2 або 3, і тільки один раз не вийде жодного із трьох зазначених чисел окулярів. Якщо той, хто чекає випадання одного із трьох зазначених чисел окулярів, поставить три асів (давньоримські мідні монети), а другий один, то спочатку перший виграє тричі й одержить три асів, а потім другий виграє один раз і одержить три асів; таким чином, у загальному підсумку чотирьох кидань шанси їх завжди зрівняються. Стало бути, такі умови розрахунку в грі — правильні; якщо ж другий з них поставить більше, те йому доведеться боротися в грі на нерівних умовах і зі збитком для себе; а якщо він поставить менше, те з баришем.» Однак Кардано розуміє, що ці твердження справедливі тільки тоді, коли гра буде тривати досить довго [1].


    продолжение
--PAGE_BREAK--2.2 Введення поняття математичного очікування і його подальший розвиток


Звернемося до роботи Х. Гюйгенса «Про розрахунок в азартних іграх». Книга складається із введення й 14 пропозицій. Розглянемо перші три пропозиції [1].

Пропозиція 1: «Якщо я маю рівні шанси одержання a або b, те це мені коштує <img border=«0» width=«39» height=«41» src=«ref-1_1802798995-156.coolpic» v:shapes="_x0000_i1056"> «.

Пропозиція 2: «Якщо я маю рівні шанси на одержання a, b або c, те це мені коштує стільки ж, як якби я мав <img border=«0» width=«60» height=«41» src=«ref-1_1802799151-192.coolpic» v:shapes="_x0000_i1057">.

Пропозиція 3: «Якщо число випадків, у яких виходить сума a, дорівнює p і число випадків, у яких виходить сума b, дорівнює q, і всі випадки однаково легко можуть відбутися, то вартість мого очікування дорівнює <img border=«0» width=«56» height=«45» src=«ref-1_1802799343-231.coolpic» v:shapes="_x0000_i1058">.

По суті Гюйгенс тут так визначає математичне очікування. Він фактично вперше вводить поняття математичного очікування й використовує його. Математичне очікування є узагальненням поняття середньої арифметичної. Середня арифметична широко застосовувалася в торгівлі й промисловості для визначення середніх цін, середнього прибутку й т.п.

Термінологія Гюйгенса в теорії ймовірностей несе на собі відбиток комерційної термінології. Він уважає, що математичне очікування — це ціна шансу на виграш у необразливій грі й доходить висновку, що справедлива ціна — є середня ціна. Він обчислює «за яку справедливу ціну я міг би поступитися своє місце в грі іншому». Сам Гюйгенс не називає математичне очікування очікуванням, воно в нього фігурує як вартість шансу. Уперше термін «очікування» з'являється в перекладі роботи Гюйгенса Францем ван Схоутеном.

Робота Х. Гюйгенса дуже вплинула на Я. Бернуллі. До пропозицій 1, 2 і 3 Гюйгенса Бернуллі робить велика примітка.

«Автор цього трактату викладає… у цьому й двох наступних пропозиціях основний принцип мистецтва припущень. Тому що дуже важливо, щоб цей принцип був добре зрозумілий, то я спробую довести його за допомогою вирахувань більше звичайних і більше доступних всім, виходячи винятково з тієї аксіоми, або визначення, що кожний повинен очікувати або припускає очікувати стільки скільки він неминуче одержить.

Слово «очікування» тут не повинне розумітися в його звичайному змісті, відповідно до якого «очікувати» або «сподіватися» ставиться до події найбільш сприятливому, хоча може відбутися найгірше для нас; потрібно розуміти під цим словом надію, що ми маємо на одержання кращого, зменшеним страхом гіршого. Так що вартість нашого очікування завжди означає щось середнє між кращим, на що ми сподіваємося, і гіршим, чого ми боїмося...»

Після розгляду пропозиції 3 Бернуллі відзначає наступне: «З розгляду… очевидно, що є велика подібність із правилом, називаним в арифметиці правилом товариства, що складається в знаходженні ціни суміші, складеної з певних кількостей різних речей з різною ціною. Або, скоріше, що обчислення є абсолютно однаковими. Так, подібно тому, як сума добутків кількостей речовин, що змішуються, на їхні відповідні ціни, розділена на суму речовин, дає шукану ціну, що завжди перебуває між крайніми цінами, також сума добутків випадків на відповідно принесені ними вигоди, розділена на число всіх випадків, указує вартість очікування, що внаслідок цього завжди є «середньою між найбільшою й найменшою із цих вигід».

Це досить гарне пояснення математичного очікування і його зв'язку зі зваженої середньої арифметичної [1].

У середині й у другій половині XVIII в. багато вчених займалися питаннями пов'язаними з теорією ймовірностей. Насамперед, це ставиться до математиків, з яких можна виділити Д. Бернуллі (1700–1778 р.). Найбільш відомою роботою Д. Бернуллі по теорії ймовірностей є «Досвід нової теорії міри випадку» (1738 р.), у якій він уводить поняття морального очікування [2]. Однак, незважаючи на те, що надалі багато вчених розробляли це поняття воно не прижилося в теорії ймовірностей. Д. Бернуллі вводить правило підрахунку математичного очікування, що він називає основним правилом: «Значення очікуваної величини виходить шляхом множення значень окремих очікуваних величин на число випадків, у яких вони можуть з'явитися, і наступного ділення суми добутків на суму всіх випадків, при цьому потрібно, щоб розглядалися ті випадки, які є рівно можливими між собою» [1, 2]. Це правило повністю відповідає визначенню математичного очікування дискретної випадкової величини.
<img border=«0» width=«260» height=«68» src=«ref-1_1802799574-788.coolpic» v:shapes="_x0000_i1059">.
Тут <img border=«0» width=«17» height=«24» src=«ref-1_1802800362-91.coolpic» v:shapes="_x0000_i1060"> — значення окремої i-ой очікуваної величини,

<img border=«0» width=«20» height=«24» src=«ref-1_1802800453-100.coolpic» v:shapes="_x0000_i1061"> — число випадків у які може з'явитися i-а очікувана величина,

n-числовсіх випадків.

Ми бачимо, що визначення математичного очікування дискретної випадкової величини остаточно сформувалося до середини XVIII в. і активно використовувалося при рішенні різних задач. Однак поняття математичного очікування іноді вважали недостатнім. Тому були спроби ввести поняття морального очікування (моральне очікування), що пов'язане з «вигодою, що залежить від особистих умов». Незважаючи на те, що розробкою поняття морального очікування займалися багато вчених (Д. Бернуллі, Ж.Л. Бюффон, В.Я. Буняковський, Н.Е. Зернов, Лаплас, Пуассон, Лакруа), це поняття не закріпилося в науці.

Можна зробити висновок, що поняття математичного очікування перебороло складний шлях щоб стати одним з головних і основних понять у теорії ймовірностей.



    продолжение
--PAGE_BREAK--3. Закон більших чисел3.1 Первісне осмислення статистичної закономірності


Закон більших чисел займає одне із центральних місць у теорії ймовірностей. Донедавна проблема закону більших чисел не була остаточно вирішена. Розглянемо динаміку розвитку цього закону.

Одним з перших до розуміння статистичної закономірності й закону більших чисел підійшов Кардано. Щодо свого висновку про 6 можливості одержати однакові числа окулярів на двох костях і 30 можливостях — різні, він пише: «Ціла серія ігор (36 кидків) не дає відхилення, хоча в одній грі це може трапитися..., при великій кількості ігор виявляється, що дійсність досить наближається до цього припущення» [1].

Тут Кардано затверджує, що при малій кількості спостережень частота може відхилятися досить сильно від частки, або, інакше кажучи, – від імовірності; при великій кількості випробувань це відхилення буде незначно.


3.2 Поява теорем Бернуллі й Пуассона — найпростіших форм закону більших чисел


Я. Бернуллі писав: «…І що не дано вивести a priori те, принаймні, можна одержати a posteriori, тобто з багаторазового спостереження результатів...».

Бернуллі затверджує, що якщо в азартних іграх завжди можна порахувати число випадків, а самі випадки зустрічаються однаково легко, те в інших явищах у природі й суспільстві ні те ні інше не має.

«Все йдеться до того, щоб для правильного складання пропозицій про яку-небудь річ були точно обчислені як числа випадків, так і було б визначене наскільки одні випадки можуть легше зустрітися, чим інші...». Але це зовсім неможливо зробити для більшості явищ. Однак Бернуллі знайшов вихід зі сформованої ситуації. Він затверджує, що при збільшенні числа випробувань, частота появи якої-небудь події буде мало відрізнятися від імовірності появи цієї події. І чим більше число випробувань, тим менше ця відмінність. «Варто помітити, що відношення між числами випадків, які ми бажаємо визначити досвідом, розуміється не в змісті точного відношення..., але до відомого ступеня наближеного, тобто ув'язненого у двох границях, які можна взяти як завгодно тісними».

У допомогу доказу своєї теореми Бернуллі доводить ряд лем [1].

Лема 1.

Розглядаються два ряди


0, 1, 2, ..., r — 1, r, r + 1, ..., r + s;

0, 1, 2, …, nr – n, …, nr, …, nr + n, …, nr + ns<img border=«0» width=«12» height=«23» src=«ref-1_1802800553-73.coolpic» v:shapes="_x0000_i1062">
і затверджується, що зі збільшенням n росте кількість членів між nr і nr + n; nr і nr – n; nr + n і nr + ns; nr і. Крім того, як би велико не було n, число членів після nr + n не буде перевищувати більш ніж в s – 1 раз число членів, укладених між nr і nr + n або між nr і nr – n, а також число членів до nr – n не буде перевищувати більш ніж в r – 1 раз число членів між тими ж числами.

Доказ.

Знайдемо кількість членів між зазначеними в лемі членами розглянутих рядів. Для цього введемо позначення:

<img border=«0» width=«20» height=«23» src=«ref-1_1802800626-103.coolpic» v:shapes="_x0000_i1063">-число членів між nr і nr+n;

<img border=«0» width=«21» height=«23» src=«ref-1_1802800729-104.coolpic» v:shapes="_x0000_i1064">-число членів між nr і nr-n;

<img border=«0» width=«21» height=«24» src=«ref-1_1802800833-103.coolpic» v:shapes="_x0000_i1065">-число членів між nr+n і nr+ns;

<img border=«0» width=«21» height=«23» src=«ref-1_1802800936-104.coolpic» v:shapes="_x0000_i1066">-число членів між nr і ;

<img border=«0» width=«21» height=«24» src=«ref-1_1802801040-102.coolpic» v:shapes="_x0000_i1067">-число членів після nr+n;

<img border=«0» width=«21» height=«24» src=«ref-1_1802801142-104.coolpic» v:shapes="_x0000_i1068">-число членів до nr-n.
<img border=«0» width=«124» height=«23» src=«ref-1_1802801246-214.coolpic» v:shapes="_x0000_i1069">;

<img border=«0» width=«233» height=«23» src=«ref-1_1802801460-325.coolpic» v:shapes="_x0000_i1070">;

<img border=«0» width=«389» height=«24» src=«ref-1_1802801785-497.coolpic» v:shapes="_x0000_i1071">;

<img border=«0» width=«55» height=«23» src=«ref-1_1802802282-142.coolpic» v:shapes="_x0000_i1072">.
Очевидно, що зі збільшенням n (тобто при <img border=«0» width=«48» height=«16» src=«ref-1_1802802424-125.coolpic» v:shapes="_x0000_i1073">) <img border=«0» width=«20» height=«23» src=«ref-1_1802800626-103.coolpic» v:shapes="_x0000_i1074">, <img border=«0» width=«21» height=«23» src=«ref-1_1802800729-104.coolpic» v:shapes="_x0000_i1075">, <img border=«0» width=«21» height=«24» src=«ref-1_1802800833-103.coolpic» v:shapes="_x0000_i1076">, <img border=«0» width=«21» height=«23» src=«ref-1_1802800936-104.coolpic» v:shapes="_x0000_i1077"> будуть необмежено зростати.

Знайдемо число членів після nr+n (<img border=«0» width=«21» height=«24» src=«ref-1_1802801040-102.coolpic» v:shapes="_x0000_i1078"> ), мабуть, що <img border=«0» width=«21» height=«24» src=«ref-1_1802801040-102.coolpic» v:shapes="_x0000_i1079">=<img border=«0» width=«21» height=«24» src=«ref-1_1802800833-103.coolpic» v:shapes="_x0000_i1080"> =<img border=«0» width=«52» height=«21» src=«ref-1_1802803270-146.coolpic» v:shapes="_x0000_i1081"> .

Очевидно, що <img border=«0» width=«21» height=«24» src=«ref-1_1802801040-102.coolpic» v:shapes="_x0000_i1082">=<img border=«0» width=«63» height=«23» src=«ref-1_1802803518-158.coolpic» v:shapes="_x0000_i1083"> =<img border=«0» width=«61» height=«23» src=«ref-1_1802803676-157.coolpic» v:shapes="_x0000_i1084">, тобто число членів після nr+n не перевищує більш ніж в s-1 раз число членів ув'язнених між nr і nr+n або між nr і nr-n, для будь-якого n.

Знайдемо число членів до nr-n (<img border=«0» width=«21» height=«24» src=«ref-1_1802801142-104.coolpic» v:shapes="_x0000_i1085"> ), мабуть, що <img border=«0» width=«140» height=«24» src=«ref-1_1802803937-233.coolpic» v:shapes="_x0000_i1086">, а значить <img border=«0» width=«21» height=«24» src=«ref-1_1802801142-104.coolpic» v:shapes="_x0000_i1087">=<img border=«0» width=«60» height=«23» src=«ref-1_1802804274-156.coolpic» v:shapes="_x0000_i1088"> =<img border=«0» width=«64» height=«23» src=«ref-1_1802804430-159.coolpic» v:shapes="_x0000_i1089">, тобто число членів до nr-n не перевищує більш ніж в r-1 раз число членів ув'язнених між nr і nr+n або між nr і nr-n, для будь-якого n.

Що й було потрібно довести.

Лема 2.

Усякий цілий ступінь якого-небудь двочлена r + s виражається числом членів, на одиницю більшим числа одиниць у показникуступеня.

Доказ.

Розглянемо <img border=«0» width=«52» height=«24» src=«ref-1_1802804589-147.coolpic» v:shapes="_x0000_i1090">, де x<img border=«0» width=«27» height=«16» src=«ref-1_1802804736-103.coolpic» v:shapes="_x0000_i1091"> (x – ціле число)
<img border=«0» width=«52» height=«24» src=«ref-1_1802804589-147.coolpic» v:shapes="_x0000_i1092">= <img border=«0» width=«459» height=«41» src=«ref-1_1802804986-970.coolpic» v:shapes="_x0000_i1093">.
Складемо ряд зі ступенів одночлена s (або r)

0,1,2,..., x-2, x-1, x. Число членів у цьому ряді дорівнює x+1.

Т. о. усякий цілий ступінь двочлена r + s виражається числом членів, на одиницю більшим числа одиниць у показникуступеня. Що й було потрібно довести.

Лема 3.

У будь-якому ступені двочлена r + s, принаймні в t=r+s або nt=nr+ns, деякий член M буде найбільшим, якщо числа попередніх йому й наступних за ним членів перебувають у відношенні s до r або, що те ж, якщо в цьому члені показники букв r і s перебувають відносно самих кількостей r і s; більше близький до нього член з тієї й іншої сторони більше вилученого з тієї ж сторони; але той же член M має до більше близького менше відношення, чим більше близький до більше вилученого при рівному числі проміжних членів.

Доказ.
<img border=«0» width=«477» height=«41» src=«ref-1_1802805956-875.coolpic» v:shapes="_x0000_i1094">
Відзначається, що коефіцієнти членів рівно віддалених від кінців рівні. Число всіх членів nt+1=nr+ns+1. Найбільший член буде:


M=<img border=«0» width=«156» height=«41» src=«ref-1_1802806831-393.coolpic» v:shapes="_x0000_i1095"><img border=«0» width=«40» height=«21» src=«ref-1_1802807224-127.coolpic» v:shapes="_x0000_i1096"> =<img border=«0» width=«127» height=«41» src=«ref-1_1802807351-352.coolpic» v:shapes="_x0000_i1097"><img border=«0» width=«40» height=«21» src=«ref-1_1802807224-127.coolpic» v:shapes="_x0000_i1098"> .


M можна записати в іншому виді, скориставшись наступною формулою <img border=«0» width=«119» height=«25» src=«ref-1_1802807830-247.coolpic» v:shapes="_x0000_i1099">.
M=<img border=«0» width=«156» height=«41» src=«ref-1_1802808077-389.coolpic» v:shapes="_x0000_i1100"><img border=«0» width=«40» height=«21» src=«ref-1_1802807224-127.coolpic» v:shapes="_x0000_i1101"> =<img border=«0» width=«127» height=«41» src=«ref-1_1802808593-352.coolpic» v:shapes="_x0000_i1102"><img border=«0» width=«40» height=«21» src=«ref-1_1802807224-127.coolpic» v:shapes="_x0000_i1103"> .
Найближчий до нього ліворуч член дорівнює
<img border=«0» width=«45» height=«23» src=«ref-1_1802809072-136.coolpic» v:shapes="_x0000_i1104"><img border=«0» width=«129» height=«44» src=«ref-1_1802809208-401.coolpic» v:shapes="_x0000_i1105"><img border=«0» width=«60» height=«21» src=«ref-1_1802809609-155.coolpic» v:shapes="_x0000_i1106">;

праворуч – <img border=«0» width=«45» height=«23» src=«ref-1_1802809764-136.coolpic» v:shapes="_x0000_i1107"><img border=«0» width=«129» height=«44» src=«ref-1_1802809900-397.coolpic» v:shapes="_x0000_i1108"><img border=«0» width=«60» height=«21» src=«ref-1_1802810297-152.coolpic» v:shapes="_x0000_i1109">.

Наступний ліворуч – <img border=«0» width=«47» height=«23» src=«ref-1_1802810449-137.coolpic» v:shapes="_x0000_i1110"><img border=«0» width=«128» height=«44» src=«ref-1_1802810586-398.coolpic» v:shapes="_x0000_i1111"><img border=«0» width=«68» height=«21» src=«ref-1_1802810984-161.coolpic» v:shapes="_x0000_i1112">;

праворуч – <img border=«0» width=«47» height=«23» src=«ref-1_1802811145-141.coolpic» v:shapes="_x0000_i1113"><img border=«0» width=«128» height=«44» src=«ref-1_1802811286-399.coolpic» v:shapes="_x0000_i1114"><img border=«0» width=«63» height=«21» src=«ref-1_1802811685-156.coolpic» v:shapes="_x0000_i1115"> і т.д.

<img border=«0» width=«195» height=«45» src=«ref-1_1802811841-456.coolpic» v:shapes="_x0000_i1116">; <img border=«0» width=«116» height=«45» src=«ref-1_1802812297-351.coolpic» v:shapes="_x0000_i1117">;
<img border=«0» width=«187» height=«45» src=«ref-1_1802812648-459.coolpic» v:shapes="_x0000_i1118">; <img border=«0» width=«115» height=«45» src=«ref-1_1802813107-353.coolpic» v:shapes="_x0000_i1119">, і т.д.

Очевидно, що: <img border=«0» width=«132» height=«45» src=«ref-1_1802813460-359.coolpic» v:shapes="_x0000_i1120">

<img border=«0» width=«132» height=«45» src=«ref-1_1802813819-375.coolpic» v:shapes="_x0000_i1121">, M-Найбільший член.
Що й було потрібно довести.

Лема 4.

У ступені двочлена з показником nt число n може бути взяте настільки більшим, щоб відношення найбільшого члена M до двох іншим L і <img border=«0» width=«15» height=«19» src=«ref-1_1802814194-90.coolpic» v:shapes="_x0000_i1122">, що відстоїть від нього ліворуч і праворуч на n членів, перевершило всяке дане відношення.

Доказ.


M=<img border=«0» width=«127» height=«41» src=«ref-1_1802807351-352.coolpic» v:shapes="_x0000_i1123"><img border=«0» width=«40» height=«21» src=«ref-1_1802807224-127.coolpic» v:shapes="_x0000_i1124"> =<img border=«0» width=«127» height=«41» src=«ref-1_1802808593-352.coolpic» v:shapes="_x0000_i1125"><img border=«0» width=«40» height=«21» src=«ref-1_1802807224-127.coolpic» v:shapes="_x0000_i1126"> ;

L=<img border=«0» width=«152» height=«44» src=«ref-1_1802815242-432.coolpic» v:shapes="_x0000_i1127"><img border=«0» width=«63» height=«21» src=«ref-1_1802815674-154.coolpic» v:shapes="_x0000_i1128"> ;

<img border=«0» width=«15» height=«19» src=«ref-1_1802814194-90.coolpic» v:shapes="_x0000_i1129">=<img border=«0» width=«151» height=«44» src=«ref-1_1802815918-431.coolpic» v:shapes="_x0000_i1130"><img border=«0» width=«63» height=«21» src=«ref-1_1802816349-151.coolpic» v:shapes="_x0000_i1131"> .
Для доказу леми необхідно встановити, що
<img border=«0» width=«73» height=«37» src=«ref-1_1802816500-361.coolpic» v:shapes="_x0000_i1132"> и.<img border=«0» width=«63» height=«32» src=«ref-1_1802816861-304.coolpic» v:shapes="_x0000_i1133">

<img border=«0» width=«24» height=«41» src=«ref-1_1802817165-138.coolpic» v:shapes="_x0000_i1134">=<img border=«0» width=«266» height=«43» src=«ref-1_1802817303-840.coolpic» v:shapes="_x0000_i1135"> =<img border=«0» width=«162» height=«38» src=«ref-1_1802818143-508.coolpic» v:shapes="_x0000_i1136"> =

=<img border=«0» width=«228» height=«45» src=«ref-1_1802818651-657.coolpic» v:shapes="_x0000_i1137"> .

<img border=«0» width=«24» height=«41» src=«ref-1_1802819308-141.coolpic» v:shapes="_x0000_i1138">=<img border=«0» width=«257» height=«39» src=«ref-1_1802819449-821.coolpic» v:shapes="_x0000_i1139"> =<img border=«0» width=«166» height=«39» src=«ref-1_1802820270-557.coolpic» v:shapes="_x0000_i1140"> = =<img border=«0» width=«187» height=«37» src=«ref-1_1802820827-520.coolpic» v:shapes="_x0000_i1141"> .
Але ці відносини будуть нескінченно більшими, коли n покладається нескінченним, тому що тоді зникають числа 1, 2, 3 та ін. у порівнянні з n, і самі числа <img border=«0» width=«68» height=«19» src=«ref-1_1802821347-156.coolpic» v:shapes="_x0000_i1142">, <img border=«0» width=«71» height=«19» src=«ref-1_1802821503-160.coolpic» v:shapes="_x0000_i1143">, <img border=«0» width=«69» height=«19» src=«ref-1_1802821663-156.coolpic» v:shapes="_x0000_i1144"> та ін. <img border=«0» width=«67» height=«19» src=«ref-1_1802821819-156.coolpic» v:shapes="_x0000_i1145">, <img border=«0» width=«69» height=«19» src=«ref-1_1802821975-158.coolpic» v:shapes="_x0000_i1146">, <img border=«0» width=«68» height=«19» src=«ref-1_1802822133-155.coolpic» v:shapes="_x0000_i1147"> та ін. будуть мати ті ж значення, як <img border=«0» width=«45» height=«17» src=«ref-1_1802822288-131.coolpic» v:shapes="_x0000_i1148"> і <img border=«0» width=«45» height=«17» src=«ref-1_1802822419-128.coolpic» v:shapes="_x0000_i1149">. Після цього відкинувши ці числа й провівши відповідні скорочення на n, одержимо, що
<img border=«0» width=«24» height=«41» src=«ref-1_1802817165-138.coolpic» v:shapes="_x0000_i1150">=<img border=«0» width=«128» height=«44» src=«ref-1_1802822685-411.coolpic» v:shapes="_x0000_i1151">; <img border=«0» width=«24» height=«41» src=«ref-1_1802819308-141.coolpic» v:shapes="_x0000_i1152">=<img border=«0» width=«128» height=«44» src=«ref-1_1802823237-410.coolpic» v:shapes="_x0000_i1153"> .
Кількість співмножників у чисельнику й знаменнику дорівнює n. Внаслідок чого ці відносини будуть нескінченними ступенями виражень: <img border=«0» width=«44» height=«41» src=«ref-1_1802823647-173.coolpic» v:shapes="_x0000_i1154"> і <img border=«0» width=«43» height=«41» src=«ref-1_1802823820-174.coolpic» v:shapes="_x0000_i1155"> й тому нескінченно більшими.

Таким чином, ми з'ясували, що в нескінченно високому ступені двочлена відношення найбільшого члена до іншим L і <img border=«0» width=«15» height=«19» src=«ref-1_1802814194-90.coolpic» v:shapes="_x0000_i1156"> перевершує всяке задане відношення.
<img border=«0» width=«85» height=«43» src=«ref-1_1802824084-372.coolpic» v:shapes="_x0000_i1157"> и.<img border=«0» width=«85» height=«43» src=«ref-1_1802824456-377.coolpic» v:shapes="_x0000_i1158">
Що й було потрібно довести.

Лема 5.

Відношення суми всіх членів від L до <img border=«0» width=«15» height=«19» src=«ref-1_1802824833-92.coolpic» v:shapes="_x0000_i1159"> до всім іншим зі збільшенням n може бути зроблене більше всякого заданого числа.

Доказ.

M – найбільший член розкладання.

Нехай сусідні з ним ліворуч будуть F, G, H,…;

нехай сусідні з L ліворуч будуть P, Q, R,…...

На підставі леми 3 маємо:


<img border=«0» width=«24» height=«41» src=«ref-1_1802824925-143.coolpic» v:shapes="_x0000_i1160"><<img border=«0» width=«20» height=«41» src=«ref-1_1802825068-121.coolpic» v:shapes="_x0000_i1161"> ;<img border=«0» width=«20» height=«41» src=«ref-1_1802825189-129.coolpic» v:shapes="_x0000_i1162"> <<img border=«0» width=«20» height=«44» src=«ref-1_1802825318-132.coolpic» v:shapes="_x0000_i1163"> ;<img border=«0» width=«23» height=«41» src=«ref-1_1802825450-135.coolpic» v:shapes="_x0000_i1164"> <<img border=«0» width=«20» height=«41» src=«ref-1_1802825585-134.coolpic» v:shapes="_x0000_i1165">, …або <img border=«0» width=«24» height=«41» src=«ref-1_1802825719-142.coolpic» v:shapes="_x0000_i1166"><<img border=«0» width=«20» height=«41» src=«ref-1_1802825861-128.coolpic» v:shapes="_x0000_i1167"> <<img border=«0» width=«20» height=«44» src=«ref-1_1802825989-134.coolpic» v:shapes="_x0000_i1168"> <<img border=«0» width=«23» height=«41» src=«ref-1_1802826123-137.coolpic» v:shapes="_x0000_i1169"> <…...
Тому що по лемі 4, при n нескінченно великому, відношення <img border=«0» width=«24» height=«41» src=«ref-1_1802825719-142.coolpic» v:shapes="_x0000_i1170"> нескінченно, те тим більше будуть нескінченними відносини <img border=«0» width=«20» height=«41» src=«ref-1_1802825861-128.coolpic» v:shapes="_x0000_i1171">, <img border=«0» width=«20» height=«44» src=«ref-1_1802825989-134.coolpic» v:shapes="_x0000_i1172">, <img border=«0» width=«23» height=«41» src=«ref-1_1802826123-137.coolpic» v:shapes="_x0000_i1173">,…,і тому відношення <img border=«0» width=«107» height=«44» src=«ref-1_1802826801-342.coolpic» v:shapes="_x0000_i1174"> також нескінченно, тобто сума членів між найбільшим M і межею L нескінченно більше суми такого ж числа членів за межею L і найбільше до нього близьких. І тому що число всіх членів за межею L перевищує, по лемі 1, не більш ніж в s-1 раз (тобто кінцеве число раз) число членів між цією межею й найбільшим членом M, а самі члени робляться тим менше, ніж далі вони відстоять від межі, по першій частині леми 3, то сума всіх членів між M іL (навіть не вважаючи M) буде нескінченно більше сум всіх членів за межею L. Аналогічне твердження можна довести щодо членів між M і <img border=«0» width=«15» height=«19» src=«ref-1_1802824833-92.coolpic» v:shapes="_x0000_i1175">. Обоє ці твердження й доводять лему.

Що й було потрібно довести.

Головна пропозиція.

Нехай число добрих нагод ставиться до числа несприятливих точно або приблизно, як r доs, або до числа всіх випадків, як r доr+s або r доt, це відношення полягає в межах <img border=«0» width=«36» height=«41» src=«ref-1_1802827235-149.coolpic» v:shapes="_x0000_i1176"> і <img border=«0» width=«36» height=«41» src=«ref-1_1802827384-143.coolpic» v:shapes="_x0000_i1177">. Потрібно довести, що можна взяти стільки досвідів, щоб у яке завгодно дане число раз (c раз) було ймовірніше, що число сприятливих спостережень потрапить у ці межі, а не поза ними, тобто відношення числа сприятливих спостережень до числа всіх буде не більш ніж <img border=«0» width=«36» height=«41» src=«ref-1_1802827235-149.coolpic» v:shapes="_x0000_i1178"> і не менш <img border=«0» width=«36» height=«41» src=«ref-1_1802827384-143.coolpic» v:shapes="_x0000_i1179">.

Доказ.

Нехай число необхідних спостережень буде nt. Імовірність того що всі спостереження будуть сприятливі, дорівнює
<img border=«0» width=«84» height=«41» src=«ref-1_1802827819-238.coolpic» v:shapes="_x0000_i1180">,
що все крім одного
<img border=«0» width=«125» height=«44» src=«ref-1_1802828057-316.coolpic» v:shapes="_x0000_i1181">,
крім двох
<img border=«0» width=«183» height=«44» src=«ref-1_1802828373-440.coolpic» v:shapes="_x0000_i1182"> і т.д.
А це є члени розкладання (r+s) у ступені nt (ділені на <img border=«0» width=«21» height=«21» src=«ref-1_1802828813-104.coolpic» v:shapes="_x0000_i1183">), які досліджувалися в минулих лемах. Всі подальші висновки ґрунтуються на доведених лемах. Число випадків з ns несприятливими спостереженнями й nr сприятливими дає член M. Число випадків, при яких буде nr+n або nr-n сприятливих спостережень, виражається членами L і <img border=«0» width=«15» height=«19» src=«ref-1_1802824833-92.coolpic» v:shapes="_x0000_i1184">, що відстоять на n членів від M. Отже, число випадків, для яких сприятливих спостережень виявиться не більше nr+n і не меншnr-n, буде виражатися сумою членів, укладених між L і <img border=«0» width=«15» height=«19» src=«ref-1_1802824833-92.coolpic» v:shapes="_x0000_i1185">. Загальне ж число випадків, для яких сприятливих спостережень буде або більше nr+n або менше nr-n, виражається сумою членів, що стоять лівіше L і правіше <img border=«0» width=«15» height=«19» src=«ref-1_1802824833-92.coolpic» v:shapes="_x0000_i1186">.

Тому що ступінь двочлена може бути взята настільки більша, щоб сума членів, укладених між обома межами L і <img border=«0» width=«15» height=«19» src=«ref-1_1802824833-92.coolpic» v:shapes="_x0000_i1187"> перевершувала більш ніж в c раз суму всіх інших із цих меж вихідних, по лемах 4-й і 5-й, те, отже, можна взяти настільки велика кількість спостережень, щоб число випадків, при яких відношення числа сприятливих спостережень до числа всіх виявляється ув'язненим у межі <img border=«0» width=«47» height=«41» src=«ref-1_1802829285-180.coolpic» v:shapes="_x0000_i1188"> й <img border=«0» width=«47» height=«41» src=«ref-1_1802829465-168.coolpic» v:shapes="_x0000_i1189"> або <img border=«0» width=«35» height=«41» src=«ref-1_1802829633-149.coolpic» v:shapes="_x0000_i1190"> й <img border=«0» width=«35» height=«41» src=«ref-1_1802829782-142.coolpic» v:shapes="_x0000_i1191">, перевищувало більш ніж в c раз число інших випадків, тобто зробилося більш ніж в c раз імовірніше, що відношення числа сприятливих спостережень до числа всіх полягає в межах <img border=«0» width=«35» height=«41» src=«ref-1_1802829633-149.coolpic» v:shapes="_x0000_i1192"> і <img border=«0» width=«35» height=«41» src=«ref-1_1802829782-142.coolpic» v:shapes="_x0000_i1193">, а не поза цими межами.

Що й було потрібно довести.

Для порівняння дамо сучасне формулювання теореми Бернуллі.

Теорема Бернуллі.

Якщо ймовірність настання події A у послідовності незалежних випробувань постійна й дорівнює p, те, яке б не було позитивне число <img border=«0» width=«13» height=«15» src=«ref-1_1802830215-86.coolpic» v:shapes="_x0000_i1194">, з імовірністю як завгодно близької до одиниці, можна затверджувати, що при досить великій кількості випробувань n різниця <img border=«0» width=«45» height=«41» src=«ref-1_1802830301-155.coolpic» v:shapes="_x0000_i1195"> по абсолютній величині виявиться меншої, чим <img border=«0» width=«13» height=«15» src=«ref-1_1802830215-86.coolpic» v:shapes="_x0000_i1196">:
<img border=«0» width=«148» height=«48» src=«ref-1_1802830542-449.coolpic» v:shapes="_x0000_i1197">,
де -<img border=«0» width=«13» height=«17» src=«ref-1_1802830991-89.coolpic» v:shapes="_x0000_i1198">будь-яке мале число.

Ця теорема буде доведена нами пізніше (після введення нерівності Чебишева).

Завжди може трапитися, що, яким би більшим не було n, у даній серії з n випробувань <img border=«0» width=«51» height=«45» src=«ref-1_1802831080-207.coolpic» v:shapes="_x0000_i1199"> виявиться більше <img border=«0» width=«13» height=«15» src=«ref-1_1802830215-86.coolpic» v:shapes="_x0000_i1200">. Але, відповідно до теореми Бернуллі ми можемо затверджувати, що якщо n досить велике і якщо зроблено досить багато серій випробувань по n випробувань у кожній серії, то в гнітючому числі серій нерівність <img border=«0» width=«75» height=«45» src=«ref-1_1802831373-265.coolpic» v:shapes="_x0000_i1201"> буде виконано.

Бернуллі вважає, що з доведеної теореми «випливає те дивне, очевидно, наслідок, що якби спостереження над всіма подіями продовжувати всю вічність (причому ймовірність, нарешті, перейшла б у повну вірогідність), те було б замічене, що все у світі управляється точними відносинами й постійним законом зміни, так, що навіть у речах, найвищою мірою випадкових, ми примушені були б визнати як би деяку необхідність і, скажу я, доля».

А.А. Марков писав, що в цій роботі Бернуллі «уперше була опублікована й доведена знаменита …теорема, що поклала початок закону більших чисел…»… Пуассон (1781–1840 р.) у своїй роботі «Дослідження про ймовірність судових вироків по карних і цивільних справах» займався граничними пропозиціями. У результаті він довів свою знамениту теорему, який дали назву «закон більших чисел» [1]. Теорема Пуассона формулювалася в такий спосіб.

Теорема.

Якщо виробляється n незалежних випробувань, результатами яких є настання або не настання події A, причому ймовірність настання події в окремих випробуваннях неоднакова, то з імовірністю, як завгодно близької до одиниці (або, інакше кажучи, – до вірогідності), можна затверджувати, що частота <img border=«0» width=«21» height=«48» src=«ref-1_1802797010-134.coolpic» v:shapes="_x0000_i1202"> настання події A буде як завгодно мало відрізнятися від середньої арифметичної <img border=«0» width=«17» height=«23» src=«ref-1_1802831772-161.coolpic» v:shapes="_x0000_i1203"> ймовірностей настання події в окремих випробуваннях.

Тепер цю теорему записують так:
<img border=«0» width=«176» height=«55» src=«ref-1_1802831933-850.coolpic» v:shapes="_x0000_i1204">
Якщо ж імовірність настання події не буде змінюватися від випробування до випробування, то <img border=«0» width=«17» height=«23» src=«ref-1_1802831772-161.coolpic» v:shapes="_x0000_i1205">=p, і теорема Пуассона в цьому випадку переходить у теорему Я. Бернуллі, що, таким чином, є часткою случаємо теореми Пуассона.


    продолжение
--PAGE_BREAK--3.3 Нерівність Чебишева. Закон більших чисел у формі Чебишева


17.12.1866 р. Чебишев доповів Академії наук свою роботу «Про середні величини», що була опублікована в 1867 р. В «Математичному збірнику». У цій роботі Чебишев довів одну важливу нерівність, що тепер називається нерівністю Чебишева. За допомогою цієї нерівності Чебишев одержав теорему, з якої як наслідки виходять теореми Бернуллі й Пуассона. На початку роботи «Про середні величини» Чебишев доводить теорему [1,6].

Теорема.

Якщо математичне очікування величин x, y, z,… суть a, b, c,...,

а математичне очікування квадратів <img border=«0» width=«23» height=«25» src=«ref-1_1802832944-107.coolpic» v:shapes="_x0000_i1206">, <img border=«0» width=«24» height=«28» src=«ref-1_1802833051-114.coolpic» v:shapes="_x0000_i1207">, <img border=«0» width=«21» height=«24» src=«ref-1_1802833165-105.coolpic» v:shapes="_x0000_i1208">,…суть <img border=«0» width=«20» height=«25» src=«ref-1_1802833270-99.coolpic» v:shapes="_x0000_i1209">, <img border=«0» width=«19» height=«25» src=«ref-1_1802833369-103.coolpic» v:shapes="_x0000_i1210">, <img border=«0» width=«19» height=«25» src=«ref-1_1802833472-96.coolpic» v:shapes="_x0000_i1211">,…, те ймовірність, що сума x+y+z+… полягає в межах
<img border=«0» width=«411» height=«35» src=«ref-1_1802833568-735.coolpic» v:shapes="_x0000_i1212">,

<img border=«0» width=«411» height=«35» src=«ref-1_1802834303-719.coolpic» v:shapes="_x0000_i1213">,
при всякому значенні <img border=«0» width=«17» height=«16» src=«ref-1_1802835022-168.coolpic» v:shapes="_x0000_i1214"> залишається більше <img border=«0» width=«55» height=«49» src=«ref-1_1802835190-289.coolpic» v:shapes="_x0000_i1215">.

Далі Чебишев переходить до наступної теореми.

Якщо ми зобразимо через N число величин x, y, z,…,u, думаючи в доведеній зараз теоремі <img border=«0» width=«69» height=«51» src=«ref-1_1802835479-323.coolpic» v:shapes="_x0000_i1216">, розділимо на N як суму x+y+z+…, так і межі її
<img border=«0» width=«411» height=«35» src=«ref-1_1802833568-735.coolpic» v:shapes="_x0000_i1217">,

<img border=«0» width=«411» height=«35» src=«ref-1_1802834303-719.coolpic» v:shapes="_x0000_i1218">,
те із цієї теореми одержимо наступну щодо середніх величин.

Теорема.

Якщо математичне очікування величин

x, y, z,…,<img border=«0» width=«23» height=«25» src=«ref-1_1802832944-107.coolpic» v:shapes="_x0000_i1219">,<img border=«0» width=«24» height=«28» src=«ref-1_1802833051-114.coolpic» v:shapes="_x0000_i1220">,<img border=«0» width=«21» height=«24» src=«ref-1_1802833165-105.coolpic» v:shapes="_x0000_i1221">,…суть a, b, c,…,<img border=«0» width=«20» height=«25» src=«ref-1_1802833270-99.coolpic» v:shapes="_x0000_i1222">,<img border=«0» width=«19» height=«25» src=«ref-1_1802833369-103.coolpic» v:shapes="_x0000_i1223">,<img border=«0» width=«19» height=«25» src=«ref-1_1802833472-96.coolpic» v:shapes="_x0000_i1224">,…, те ймовірність, що середнє арифметичне N величин x, y, z,…, від середнього арифметичного математичних очікувань цих величин відрізняється не більше як на <img border=«0» width=«300» height=«57» src=«ref-1_1802837880-708.coolpic» v:shapes="_x0000_i1225"> при всякому значенні, буде перевершувати <img border=«0» width=«48» height=«52» src=«ref-1_1802838588-218.coolpic» v:shapes="_x0000_i1226">.

Це і є знаменита нерівність Чебишева, що у сучасній формі записується в такий спосіб:
<img border=«0» width=«185» height=«49» src=«ref-1_1802838806-749.coolpic» v:shapes="_x0000_i1227">,
де випадкова величина x має кінцеву дисперсію <img border=«0» width=«43» height=«23» src=«ref-1_1802839555-248.coolpic» v:shapes="_x0000_i1228">, а -<img border=«0» width=«15» height=«16» src=«ref-1_1802839803-158.coolpic» v:shapes="_x0000_i1229">будь-яка відмінна від нуля позитивна величина.

Дійсно, першу теорему Чебишева можна записати так:
<img border=«0» width=«468» height=«78» src=«ref-1_1802839961-1429.coolpic» v:shapes="_x0000_i1230">
Застосуємо цю теорему до випадкової величини x:
<img border=«0» width=«368» height=«44» src=«ref-1_1802841390-761.coolpic» v:shapes="_x0000_i1231">.

Але <img border=«0» width=«136» height=«32» src=«ref-1_1802842151-445.coolpic» v:shapes="_x0000_i1232">,

<img border=«0» width=«332» height=«49» src=«ref-1_1802842596-1110.coolpic» v:shapes="_x0000_i1233">,

<img border=«0» width=«257» height=«39» src=«ref-1_1802843706-640.coolpic» v:shapes="_x0000_i1234">, <img border=«0» width=«152» height=«34» src=«ref-1_1802844346-451.coolpic» v:shapes="_x0000_i1235">.
Нехай <img border=«0» width=«99» height=«29» src=«ref-1_1802844797-354.coolpic» v:shapes="_x0000_i1236">, тоді <img border=«0» width=«88» height=«55» src=«ref-1_1802845151-457.coolpic» v:shapes="_x0000_i1237"> й одержуємо звичну формулу для нерівності Чебишева
<img border=«0» width=«185» height=«49» src=«ref-1_1802838806-749.coolpic» v:shapes="_x0000_i1238">.
Сформулюємо відповідну теорему й доведемо в ній ця нерівність.

Теорема.

Нехай є випадкова величина <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1239"> з математичним очікуванням <img border=«0» width=«23» height=«24» src=«ref-1_1802846454-104.coolpic» v:shapes="_x0000_i1240"> і дисперсією <img border=«0» width=«23» height=«24» src=«ref-1_1802846558-106.coolpic» v:shapes="_x0000_i1241">.

Нерівність Чебишева затверджує, що, яке б не було позитивне число <img border=«0» width=«13» height=«15» src=«ref-1_1802846664-85.coolpic» v:shapes="_x0000_i1242">, імовірність того, що величина <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1243"> відхилиться від свого математичного очікування не менше ніж на <img border=«0» width=«13» height=«15» src=«ref-1_1802846664-85.coolpic» v:shapes="_x0000_i1244">, обмежена зверху величиною <img border=«0» width=«25» height=«41» src=«ref-1_1802846931-141.coolpic» v:shapes="_x0000_i1245">:
<img border=«0» width=«141» height=«41» src=«ref-1_1802847072-466.coolpic» v:shapes="_x0000_i1246">.
Доказ.

1. Нехай величина <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1247"> дискретна, з поруч розподілу





Зобразимо можливі значення величини <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1258"> і її математичне очікування <img border=«0» width=«23» height=«24» src=«ref-1_1802846454-104.coolpic» v:shapes="_x0000_i1259"> у вигляді крапок на числовій осі Ox.

Задамося деяким значенням <img border=«0» width=«39» height=«19» src=«ref-1_1802848760-117.coolpic» v:shapes="_x0000_i1260"> і обчислимо ймовірність того, що величина <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1261"> відхилиться від свого математичного очікування не менше ніж на <img border=«0» width=«13» height=«15» src=«ref-1_1802846664-85.coolpic» v:shapes="_x0000_i1262">: <img border=«0» width=«103» height=«27» src=«ref-1_1802849059-356.coolpic» v:shapes="_x0000_i1263">.

Для цього відкладемо від крапки <img border=«0» width=«21» height=«24» src=«ref-1_1802849415-101.coolpic» v:shapes="_x0000_i1264"> вправо й уліво по відрізку довжиною <img border=«0» width=«13» height=«15» src=«ref-1_1802846664-85.coolpic» v:shapes="_x0000_i1265">; одержимо відрізок <img border=«0» width=«27» height=«17» src=«ref-1_1802849601-108.coolpic» v:shapes="_x0000_i1266">. Імовірність <img border=«0» width=«103» height=«27» src=«ref-1_1802849059-356.coolpic» v:shapes="_x0000_i1267"> є не що інше, як імовірність того, що випадкова крапка <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1268"> потрапить не усередину відрізка <img border=«0» width=«27» height=«17» src=«ref-1_1802849601-108.coolpic» v:shapes="_x0000_i1269">, а зовні його (кінці відрізка ми в нього не включаємо): <img border=«0» width=«199» height=«27» src=«ref-1_1802850270-496.coolpic» v:shapes="_x0000_i1270">.

Для того щоб знайти цю ймовірність, потрібно підсумувати імовірності всіх тих значень<img border=«0» width=«16» height=«24» src=«ref-1_1802847635-91.coolpic» v:shapes="_x0000_i1271">, які лежать поза відрізком <img border=«0» width=«27» height=«17» src=«ref-1_1802849601-108.coolpic» v:shapes="_x0000_i1272">. Це ми запишемо в такий спосіб:

<img border=«0» width=«168» height=«39» src=«ref-1_1802850965-584.coolpic» v:shapes="_x0000_i1273">, де запис <img border=«0» width=«81» height=«27» src=«ref-1_1802851549-203.coolpic» v:shapes="_x0000_i1274"> під знаком суми означає, що підсумовування поширюється на всі ті значення <img border=«0» width=«9» height=«17» src=«ref-1_1802851752-80.coolpic» v:shapes="_x0000_i1275">, для яких крапки <img border=«0» width=«16» height=«24» src=«ref-1_1802847635-91.coolpic» v:shapes="_x0000_i1276"> лежать поза відрізком <img border=«0» width=«27» height=«17» src=«ref-1_1802849601-108.coolpic» v:shapes="_x0000_i1277">.

З іншого боку, напишемо вираження дисперсії величини <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1278"> по визначенню:
<img border=«0» width=«278» height=«35» src=«ref-1_1802852128-741.coolpic» v:shapes="_x0000_i1279">.
Тому що всі члени суми <img border=«0» width=«96» height=«45» src=«ref-1_1802852869-395.coolpic» v:shapes="_x0000_i1280"> ненегативні, вона може тільки зменшитися, якщо ми поширимо її не на всі значення <img border=«0» width=«16» height=«24» src=«ref-1_1802847635-91.coolpic» v:shapes="_x0000_i1281">, а тільки на деякі, зокрема на ті, які лежать поза відрізком <img border=«0» width=«27» height=«17» src=«ref-1_1802849601-108.coolpic» v:shapes="_x0000_i1282">:
<img border=«0» width=«118» height=«33» src=«ref-1_1802853463-456.coolpic» v:shapes="_x0000_i1283">.
Замінимо під знаком суми вираження <img border=«0» width=«56» height=«27» src=«ref-1_1802853919-162.coolpic» v:shapes="_x0000_i1284"> через <img border=«0» width=«13» height=«15» src=«ref-1_1802846664-85.coolpic» v:shapes="_x0000_i1285">. Тому що для всіх членів суми <img border=«0» width=«81» height=«27» src=«ref-1_1802851549-203.coolpic» v:shapes="_x0000_i1286">, то від такої заміни сума теж може тільки зменшитися, значить:
<img border=«0» width=«149» height=«30» src=«ref-1_1802854369-557.coolpic» v:shapes="_x0000_i1287">.
Але відповідно до формули <img border=«0» width=«168» height=«39» src=«ref-1_1802850965-584.coolpic» v:shapes="_x0000_i1288"> сума, що коштує в правій частині цієї нерівності є не що інше, як імовірність влучення випадкової крапки зовні відрізка <img border=«0» width=«27» height=«17» src=«ref-1_1802849601-108.coolpic» v:shapes="_x0000_i1289">, отже <img border=«0» width=«156» height=«27» src=«ref-1_1802855618-319.coolpic» v:shapes="_x0000_i1290">, звідки безпосередньо випливає доказувана нерівність.

2. У випадку коли величина <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1291"> безперервна, доказ проводиться аналогічним образом із заміною ймовірностей <img border=«0» width=«17» height=«24» src=«ref-1_1802848086-97.coolpic» v:shapes="_x0000_i1292"> елементом імовірності, а кінцевих сум – інтегралами. Дійсно,
<img border=«0» width=«149» height=«34» src=«ref-1_1802856131-467.coolpic» v:shapes="_x0000_i1293">,
де <img border=«0» width=«36» height=«21» src=«ref-1_1802856598-128.coolpic» v:shapes="_x0000_i1294">– щільність розподілу величини <img border=«0» width=«19» height=«16» src=«ref-1_1802846357-97.coolpic» v:shapes="_x0000_i1295">. Далі, маємо:
<img border=«0» width=«381» height=«45» src=«ref-1_1802856823-1051.coolpic» v:shapes="_x0000_i1296">,
звідки й випливає нерівність Чебишева для безперервних величин.

Що й було потрібно довести.

Як наслідок зі своєї нерівності Чебишев одержує наступну теорему.

Теорема.

Якщо математичні очікування величин <img border=«0» width=«217» height=«31» src=«ref-1_1802857874-506.coolpic» v:shapes="_x0000_i1297"> не перевершують якої-небудь кінцевої межі, то ймовірність, що середнє арифметичне N таких величин від середніх арифметичних їхніх математичних очікувань відрізняється менш чим на яку-небудь дану величину, зі зростанням числа N до<img border=«0» width=«19» height=«15» src=«ref-1_1802858380-159.coolpic» v:shapes="_x0000_i1298">, приводиться до одиниці.

Доказ.

Дійсно, розглянемо випадкову величину <img border=«0» width=«16» height=«20» src=«ref-1_1802858539-154.coolpic» v:shapes="_x0000_i1299">, що представляє собою середню арифметичну з даних випадкових величин.
<img border=«0» width=«136» height=«39» src=«ref-1_1802858693-273.coolpic» v:shapes="_x0000_i1300">; <img border=«0» width=«295» height=«48» src=«ref-1_1802858966-927.coolpic» v:shapes="_x0000_i1301">;

<img border=«0» width=«276» height=«49» src=«ref-1_1802859893-889.coolpic» v:shapes="_x0000_i1302">.
Якщо обмежені математичні очікування випадкових величин і їхніх квадратів, то обмежені також і дисперсії, тобто Всі <img border=«0» width=«77» height=«25» src=«ref-1_1802860782-297.coolpic» v:shapes="_x0000_i1303">, де c-деяке число. Тоді
<img border=«0» width=«119» height=«48» src=«ref-1_1802861079-485.coolpic» v:shapes="_x0000_i1304">.
Застосуємо тепер нерівність Чебишева до <img border=«0» width=«16» height=«20» src=«ref-1_1802858539-154.coolpic» v:shapes="_x0000_i1305">:
<img border=«0» width=«220» height=«48» src=«ref-1_1802861718-919.coolpic» v:shapes="_x0000_i1306">, або

<img border=«0» width=«413» height=«55» src=«ref-1_1802862637-1195.coolpic» v:shapes="_x0000_i1307">.
Переходячи до межі, одержуємо:
<img border=«0» width=«405» height=«55» src=«ref-1_1802863832-1215.coolpic» v:shapes="_x0000_i1308">.
Що й було потрібно довести.

Це і є теорема Чебишева – закон більших чисел Чебишева. Ця теорема встановлює, що при досить більших n з імовірністю, близької до одиниці, можна думати, що середнє арифметичне випадкових величин як завгодно мало коливається біля деякого постійного числа-середніх їхніх математичних очікувань.

Теореми Пуассона й Бернуллі є окремими випадками закону більших чисел Чебишева.

Дійсно, нехай в n випробуваннях, подія A наступає з ймовірностями <img border=«0» width=«101» height=«25» src=«ref-1_1802865047-279.coolpic» v:shapes="_x0000_i1309"> й не наступає з ймовірностями <img border=«0» width=«84» height=«24» src=«ref-1_1802865326-173.coolpic» v:shapes="_x0000_i1310">. Розглянемо випадкову величину <img border=«0» width=«19» height=«25» src=«ref-1_1802865499-99.coolpic» v:shapes="_x0000_i1311">– число настань події A в i-ом випробуванні. Тоді
<img border=«0» width=«199» height=«25» src=«ref-1_1802865598-518.coolpic» v:shapes="_x0000_i1312">; <img border=«0» width=«110» height=«38» src=«ref-1_1802866116-280.coolpic» v:shapes="_x0000_i1313">; <img border=«0» width=«156» height=«37» src=«ref-1_1802866396-305.coolpic» v:shapes="_x0000_i1314">,
<img border=«0» width=«19» height=«25» src=«ref-1_1802865499-99.coolpic» v:shapes="_x0000_i1315"> задовольняє умовам теореми Чебишева, тобто
<img border=«0» width=«412» height=«55» src=«ref-1_1802866800-1241.coolpic» v:shapes="_x0000_i1316">, або

<img border=«0» width=«180» height=«55» src=«ref-1_1802868041-861.coolpic» v:shapes="_x0000_i1317">,
де -<img border=«0» width=«17» height=«23» src=«ref-1_1802831772-161.coolpic» v:shapes="_x0000_i1318">середнє арифметичне з ймовірностей настань подій в окремих випробуваннях. А це і є теорема Пуассона.

Якщо всі <img border=«0» width=«56» height=«25» src=«ref-1_1802869063-140.coolpic» v:shapes="_x0000_i1319">, те й <img border=«0» width=«49» height=«23» src=«ref-1_1802869203-206.coolpic» v:shapes="_x0000_i1320">, і ми одержимо теорему Бернуллі:
<img border=«0» width=«179» height=«55» src=«ref-1_1802869409-853.coolpic» v:shapes="_x0000_i1321">.
Цікаво, що Чебишев не називав доведену теорему «законом більших чисел», хоча теорема Пуассона виходить із її як окремий випадок.

Знаючи, що теорема Бернуллі є часткою случаємо теореми Чебишева спробуємо довести її як прямий наслідок закону більших чисел Чебишева (тобто приведемо сучасний доказ теореми Бернуллі [3]). Повторимо сучасне формулювання теореми Бернуллі.

Теорема.

Нехай виробляється n незалежних досвідів. Якщо ймовірність настання події A у послідовності незалежних випробувань постійна й дорівнює p, те, яке б не було позитивне число <img border=«0» width=«13» height=«15» src=«ref-1_1802830215-86.coolpic» v:shapes="_x0000_i1322">, з імовірністю як завгодно близької до одиниці, можна затверджувати, що при досить великій кількості випробувань n різниця <img border=«0» width=«45» height=«41» src=«ref-1_1802830301-155.coolpic» v:shapes="_x0000_i1323"> по абсолютній величині виявиться меншої, чим <img border=«0» width=«13» height=«15» src=«ref-1_1802830215-86.coolpic» v:shapes="_x0000_i1324">:
<img border=«0» width=«168» height=«55» src=«ref-1_1802870589-778.coolpic» v:shapes="_x0000_i1325">,
де -<img border=«0» width=«13» height=«17» src=«ref-1_1802830991-89.coolpic» v:shapes="_x0000_i1326">будь-яке мале число.

Доказ.

Розглянемо незалежні випадкові величини:

-<img border=«0» width=«21» height=«23» src=«ref-1_1802871456-106.coolpic» v:shapes="_x0000_i1327">число появ події A у першому досвіді;

-<img border=«0» width=«24» height=«23» src=«ref-1_1802871562-109.coolpic» v:shapes="_x0000_i1328">число появ події A у другому досвіді, і т.д.

Всі ці величини переривані й мають той самий закон розподілу, що виражається поруч виду:





так як подія A наступає з імовірністю p і не наступає з імовірністюq <img border=«0» width=«61» height=«21» src=«ref-1_1802871671-146.coolpic» v:shapes="_x0000_i1329">. Обчислимо математичне очікування кожної з величин <img border=«0» width=«21» height=«24» src=«ref-1_1802871817-105.coolpic» v:shapes="_x0000_i1330">:
<img border=«0» width=«161» height=«24» src=«ref-1_1802871922-290.coolpic» v:shapes="_x0000_i1331">,
дисперсію:
<img border=«0» width=«505» height=«41» src=«ref-1_1802872212-901.coolpic» v:shapes="_x0000_i1332">.
<img border=«0» width=«21» height=«24» src=«ref-1_1802871817-105.coolpic» v:shapes="_x0000_i1333"> задовольняють умовам теореми Чебишева, тобто можемо застосувати нерівність Чебишева:
<img border=«0» width=«207» height=«44» src=«ref-1_1802873218-645.coolpic» v:shapes="_x0000_i1334">.

Так як <img border=«0» width=«97» height=«37» src=«ref-1_1802873863-377.coolpic» v:shapes="_x0000_i1335">, <img border=«0» width=«112» height=«46» src=«ref-1_1802874240-408.coolpic» v:shapes="_x0000_i1336">, а <img border=«0» width=«162» height=«40» src=«ref-1_1802874648-510.coolpic» v:shapes="_x0000_i1337">,
то одержуємо вираження:
<img border=«0» width=«141» height=«41» src=«ref-1_1802875158-441.coolpic» v:shapes="_x0000_i1338">.
Звідси й треба справедливість доказуваної нерівності:
<img border=«0» width=«168» height=«55» src=«ref-1_1802870589-778.coolpic» v:shapes="_x0000_i1339">,
де -<img border=«0» width=«68» height=«49» src=«ref-1_1802876377-358.coolpic» v:shapes="_x0000_i1340">мале число при <img border=«0» width=«55» height=«16» src=«ref-1_1802876735-219.coolpic» v:shapes="_x0000_i1341">.

Чте й було потрібно довести.


    продолжение
--PAGE_BREAK--3.4 Закон більших чисел для залежних випадкових величин


А.А. Марков під цим законом розумів закон, «у силу якого з імовірністю, як завгодно близької до вірогідності, можна затверджувати, що середнє арифметичне з декількох величин, при досить великій кількості цих величин, буде довільно мало відрізнятися від середніх арифметичних їхніх математичних очікувань». При такому розумінні закону більших чисел і теорема Бернуллі й теорема Пуассона й теорема Чебишева будуть його різними формами. Таке розуміння тепер загальноприйняте.

Чебишев поширив закон більших чисел на незалежні випадкові величини з рівномірно обмеженими дисперсіями:<img border=«0» width=«72» height=«23» src=«ref-1_1802876954-314.coolpic» v:shapes="_x0000_i1342"> .

Марков розширив умови застосовності цього закону. У роботі «Поширення закону більших чисел на величини, що залежать друг від друга» Марков привів наступну теорему [1,6].

Теорема.

Якщо послідовність взаємно незалежних випадкових величин <img border=«0» width=«89» height=«25» src=«ref-1_1802877268-249.coolpic» v:shapes="_x0000_i1343"> така, що
<img border=«0» width=«436» height=«52» src=«ref-1_1802877517-1450.coolpic» v:shapes="_x0000_i1344">, те

<img border=«0» width=«464» height=«50» src=«ref-1_1802878967-1138.coolpic» v:shapes="_x0000_i1345">.
Доказ.

Розглянемо величину
<img border=«0» width=«67» height=«62» src=«ref-1_1802880105-342.coolpic» v:shapes="_x0000_i1346">, <img border=«0» width=«121» height=«65» src=«ref-1_1802880447-551.coolpic» v:shapes="_x0000_i1347">.
Очевидно, що <img border=«0» width=«118» height=«67» src=«ref-1_1802880998-544.coolpic» v:shapes="_x0000_i1348"> й величина <img border=«0» width=«48» height=«28» src=«ref-1_1802881542-286.coolpic» v:shapes="_x0000_i1349"> обмежена <img border=«0» width=«48» height=«28» src=«ref-1_1802881542-286.coolpic» v:shapes="_x0000_i1350"><c, c-деяке число. Застосуємо тепер нерівність Чебишева до <img border=«0» width=«21» height=«23» src=«ref-1_1802882114-168.coolpic» v:shapes="_x0000_i1351">:
<img border=«0» width=«207» height=«44» src=«ref-1_1802873218-645.coolpic» v:shapes="_x0000_i1352">, або

<img border=«0» width=«495» height=«57» src=«ref-1_1802882927-1555.coolpic» v:shapes="_x0000_i1353">.
Переходячи до межі одержуємо:
<img border=«0» width=«504» height=«55» src=«ref-1_1802884482-1612.coolpic» v:shapes="_x0000_i1354">.
Що й було потрібно довести.

У цій роботі Марков доводить, що закон більших чисел застосуємо до <img border=«0» width=«83» height=«28» src=«ref-1_1802886094-287.coolpic» v:shapes="_x0000_i1355">, якщо <img border=«0» width=«71» height=«23» src=«ref-1_1802886381-309.coolpic» v:shapes="_x0000_i1356"> й зв'язок величин така, що збільшення кожної з них спричиняє зменшення математичних очікувань інших.

Марков зауважує: «до того ж висновку про застосовність закону більших чисел не важко прийти й у випадку, коли математичне очікування <img border=«0» width=«21» height=«25» src=«ref-1_1802886690-103.coolpic» v:shapes="_x0000_i1357"> при всякому <img border=«0» width=«15» height=«20» src=«ref-1_1802886793-94.coolpic» v:shapes="_x0000_i1358"> зменшується зі збільшенням суми <img border=«0» width=«139» height=«25» src=«ref-1_1802886887-235.coolpic» v:shapes="_x0000_i1359">«.

Марков розглядає послідовність випадкових величин, зв'язаних у ланцюг. Такі ланцюги залежних величин одержали назву марковських ланцюгів. У цій роботі Марков розглядає простий ланцюг (простий ланцюг маркова – послідовність випадкових величин, кожна з яких може приймати будь-яке число рішень, причому ймовірності рішень при <img border=«0» width=«52» height=«23» src=«ref-1_1802887122-269.coolpic» v:shapes="_x0000_i1360">-м випробуванні одержують певні значення, якщо відомо тільки результат <img border=«0» width=«15» height=«16» src=«ref-1_1802887391-87.coolpic» v:shapes="_x0000_i1361">-го випробування), причому всі <img border=«0» width=«19» height=«25» src=«ref-1_1802865499-99.coolpic» v:shapes="_x0000_i1362"> приймають значення тільки 0 або 1. Він установлює, що ці випадкові величини також підлеглі закону більших чисел. Потрібно відзначити, що в роботі Марков вимагав, щоб для всіх ймовірностей переходу виконувалася умова <img border=«0» width=«61» height=«28» src=«ref-1_1802887577-281.coolpic» v:shapes="_x0000_i1363">. Але висновки Маркова залишаються справедливими, якщо замість такого сильного обмеження вимагати тільки, щоб ця умова виконувалася хоча б для однієї ймовірності при кожному <img border=«0» width=«17» height=«16» src=«ref-1_1802835022-168.coolpic» v:shapes="_x0000_i1364">.

Наприкінці своєї роботи Марков робить висновок, що незалежність величин не становить необхідної умови для існування закону більших чисел.

У цей час використовується умову, аналогічна умові Маркова, але вже не тільки достатнє, але й необхідне для застосовності закону більших чисел до послідовності довільних випадкових величин [4].

Теорема.

Для того щоб для послідовності <img border=«0» width=«75» height=«24» src=«ref-1_1802888026-155.coolpic» v:shapes="_x0000_i1365">(як завгодно залежних) випадкових величин при будь-якому позитивному <img border=«0» width=«13» height=«15» src=«ref-1_1802846664-85.coolpic» v:shapes="_x0000_i1366"> виконувалося співвідношення
<img border=«0» width=«244» height=«51» src=«ref-1_1802888266-915.coolpic» v:shapes="_x0000_i1367">, (3.4.1)
Необхідно й досить, щоб при
<img border=«0» width=«48» height=«16» src=«ref-1_1802802424-125.coolpic» v:shapes="_x0000_i1368"> <img border=«0» width=«136» height=«68» src=«ref-1_1802889306-669.coolpic» v:shapes="_x0000_i1369">.(3.4.2)
Доказ.

Припустимо спочатку, що (2) виконано, і покажемо, що в цьому випадку виконано також (1). Позначимо через <img border=«0» width=«47» height=«24» src=«ref-1_1802889975-145.coolpic» v:shapes="_x0000_i1370"> функцію розподілу величини
<img border=«0» width=«143» height=«45» src=«ref-1_1802890120-467.coolpic» v:shapes="_x0000_i1371">.
Легко перевірити наступний ланцюжок співвідношень:
<img border=«0» width=«521» height=«104» src=«ref-1_1802890587-2461.coolpic» v:shapes="_x0000_i1372">
Ця нерівність доводить достатність умови теореми.

Покажемо тепер, що умова (2) необхідно. Легко бачити, що
<img border=«0» width=«548» height=«101» src=«ref-1_1802893048-2012.coolpic» v:shapes="_x0000_i1373">
Таким чином,
<img border=«0» width=«201» height=«48» src=«ref-1_1802895060-604.coolpic» v:shapes="_x0000_i1374">.
Вибираючи спочатку <img border=«0» width=«13» height=«15» src=«ref-1_1802846664-85.coolpic» v:shapes="_x0000_i1375"> як завгодно малим, а потім <img border=«0» width=«13» height=«15» src=«ref-1_1802895749-84.coolpic» v:shapes="_x0000_i1376"> досить більшим, ми можемо зробити праву частину останньої нерівності як завгодно малої.

Що й було потрібно довести.


    продолжение
--PAGE_BREAK--
еще рефераты
Еще работы по математике