Реферат: Шпаргалка по Маркетингу 9


--PAGE_BREAK--



16.Мат.ожидание дискретной случайной величины. М(х) мат.ожидание дискретной случайной величины х, принимает значение х1, х2,…, хnс вероятностями соотв. p1, p2,…,pnназ.сумма произведений всех ее возможных n-значений на их вероятности.

<img width=«230» height=«40» src=«ref-2_1449204147-1046.coolpic» v:shapes="_x0000_i1037">

Математическое ожидание дискретной случайной величины х явл. неслучайной постоянной величиной. Если число возможных значений дискретной случайной величины конечно, то предполагается, что ряд сходится абсолютно.Пример: случайная величина х задана следующим законом распределения: х   4  6  9

P0.5 0.3 0.2

Математическое ожидание числа появления событий в одном испытании равно вероятности этого события.

Теорема: математическое ожидание прим.равно среднему арифметическому наблюдаемых значений и случ.величины.



















17.Свойство мат.ожидания дискретной случайной величины. 1.Мат.ожидание постоянной величины k=самой постоянной: M(k)=k; 2.Постоянный множитель можно выносить за знак мат.ожидания:M(kx)=kM(k); 3.Мат.ожидание-произведение нескольких попарно независимых случ.величин=произведению их мат.ожиданий. M(kyz)=M[(xy)z]= M(xy)M(z)=M(x)M(y)M(z)

4.Мат.ожидание-сумма 2-х случайных величин-сумме их мат.ожидания. M(x+y)=M(x)+M(y).Следствие: мат.ожидание суммы нескольких случ.величин. M(x+y+z)=M[(x+y)+z]=M(x+y)+M(z)=M(x)+M(y)+M(z).Следствие: мат.ожидание суммы нескольких случайных величин: M(x+y+z)=M[(x+y)+z]=M(x+y)+M(z)=M(x)+M(y)+M(z).



18.Дисперсия дискретной случайной величины. Понятие дисперсии случ.величины вводится для характеристики отклонения данной величины от ее среднего значения.Для этого рассм.понятие отклонения.Пусть х-случ.величина и М(х)-ее мат.ожидание. Отклонением наз.разность между случ.величиной х и ее мат.ожиданием.Теорема: мат.ожидание отклонения=0; M[x-M(x)]=0. Дисперсией или рассеянием дискретной случ.величины х наз.мат.ожидание квадрата отклонения случ.величины от ее мат.ожидания. D(x)=M(x-M(x))2. Дисперсия случ.величины также имеет закон распределения.Пусть случ.величина х задана законом распределения       

x

x1

x2

x3



xn

P

p1

p2

p3



pn



В этом случае дисперсия распределена по след.закону:

(x-M(x))2

(x1-M(x))2

(x2-M(x))2



(xn-M(x))2

p

p1

p2



pn

По закону распределения квадрата отклонения можно непосредственно рассчитать значение дисперсии

<img width=«490» height=«31» src=«ref-2_1449205193-1740.coolpic» v:shapes="_x0000_i1038">


Теорема:дисперсия равна разности между между мат.ожиданием квадрата случ.величины х и квадратом ее мат.ожидания, т.е. D(x)=M(x)2-(M(x))2 .

Пример: случ.величина х задана законом распределения. Х  3      2     9          Найти дисперсию. М(х)=3*0.4+2*0.4+9*0.2=3.8

                                Р 0.4 0.4 0.2           М(х)2  =9*0.4+4*0.4+81*0.2=21.4

D(x)=21,4-(3,8)2 =6.96







19. Свойство дисперсии дискретной случайной величины.

1) Дисперсия постоянной случ. Величины k=0; D(K)=0;

2) Постоянный множитель можно выносить за знак дисперсии возводя его в квадрат, т.е. D(Kx)=K2 D(x);

3) Дисперсия суммы двух независимых случайных величин = сумме дисперсий этих величин: D(x+y)=D(x)+D(y)

Следствие 1: дисперсия суммы нескольких попарно независимых с.в. = сумме дисперсии этих величин;

Следствие 2: дисперсия суммы постоянной и случайной величины = дисперсии с.в.: D(k+x)=D(x)

4) Дисперсия разности двух независимых с.в. = сумме их дисперсий: D(x-y)=D(x)+D(y)



20. Мат. ожидание и дисперсия числа появления событий в независимых испытаниях.

Пусть осуществляется n-незав. испытаний. В каждом из этих испытаний вероятность наступления события А постоянно и =p. Необходимо определить среднее число появления события А в этих испытаниях.

Теорема: мат.ожидание М(х) числа появления события А в n-незав. испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытание.

M(x)=np

Пусть осуществляется n-незав. испытаний. В каждом из этих испытаний вероятность наступления события А постоянно и =p. Необходимо определить дисперсию числа появления события А в этих испытаниях.

Теорема:дисперсия числа наступления события А в n-независимых испытаниях, в  каждом их которых появления события постоянно и равно произведению числа испытаний на вероятность наступления и не наступления события в одном испытании.

D(x)=npq.



21. Среднее квадратичное отклонение.

Кроме дисперсии для оценивания, рассеивания возможных значений случайной величины вокруг ее среднего значения используют показатель среднее квадратичное отклонение.

Средним квадратичным отклонение с.в. Xназывается квадратный корень из ее дисперсии: G(x)=кв.корень из D(x)

Размерность квадратного отклонения совпадает с размерностью с.в.X.

Свойства: 1) G(K)=0; 2) при умножении случайной величины Xна постоянное число k, ее среднее квадратичное отклонение умножается на туже постоянную k.

Теорема:Среднее квадратичное отклонение суммы конечного числа попарно независимых с.в. = кв. корень из суммы квадратов средних квадратичных отклонений этих величин.





22. Одинаково распределенные попарно независимые случайные величины.

Дано n-попарно независимых случайных величин x1,x2,…xn, кот. является одинаково распределенными. Следовательно, данные случайные величины имеют одинаковое мат. ожидание, дисперсию и другие числовые значения. Среднеарифметические с.в. X, рассм. с.в. по следующей формуле: X=x1+x2+…+xn/ n.

Свойства среднеарифметической случайной величины: 1) мат. ожидание среднеарифметической  одинаково распред. попарно независимой с.в.= мат. ожидании, а каждое их них: M(x)=a;

2) дисперсия среднеарифметической n-одинаково распределенной попарно независимой с.в. в n-раз меньше дисперсии каждой из величин: D(x)=D(x)/n;

3) среднее квадратичное отклонение среднего арифметического n-один. распред. попарно независимых с.в. в кв. корень их nраз меньше средне квадратичного отклонения каждого из этих величин: G(x)=G(x)/кв.корень из n.
23. Неравенства Чебышева.

Для рассмотрения теорем, носящих общее название закона больших чисел, необходимо знание неравенства Чебышева. Пусть случайная дискретная величина Xзадана след. законом распределения:

необходимо оценить  вероятность того, что отклонение с.в. от ее мат. ожидания не превышает по абсолютной величине положительного числа E, в том случае если Eдостаточно мало, то задачей будет оценивание вероятностей того, что с.в. Xпримет значение достаточно близкое к своему мат. ожиданию. Поставленная задача решается с помощью неравенства Чебышева.

Вероятность того, что отклонение случайной величины Xот ее M(x) по абсолютной величине меньше положительного числа E, не менее чем 1-D(x)/E2, т.е. вероятность P( [x-M(x)]меньше E)больше или равно 1- D(x)/E2.



24. Теорема Чебышева.

Если последовательность попарно независимых с.в. x1,x2,…xn, имеющих дисперсию, ограниченные одной и той же постоянной C, т.е. D(Xi)<_C; i=1,2…n, то как бы нибыло мало положительное число E, вероятность неравенства:

будет приближаться к 1, если число с.в. достаточно мало, т.е. для любого положительного числа Eсуществует предел:

<img width=«334» height=«29» src=«ref-2_1449206933-1593.coolpic» v:shapes="_x0000_i1039">



25. Теорема Бернулли

Осущ-ся nнезависимых испытаний, в каждом из этих испытаний вер-ти наступления соб. А-постоянна и равна p. Необходимо определить какова будет относительная частота появлении соб.А, для этого используют теорему Бернулли. Теорема. Если в каждом, из nнезависисых испытаний, соб.А имеет постоянную вероятность p, то как угодно близка к 1 вер-ть того, что отклонение относительной частоты m/nот вер-ти p, но абсолютная величина будет сколь угодно малой, если число наступлений достаточно велико, т.е. при соблюдении условий теоремы, справндливо равенство: limp(|m/n-p|<E)=1 Док-во: xi-где х=1,2,3…n. Пусть xi-дискретная случайная величина, хар-щая числопоявления соб. В каждом из испытаний. Данная величина может принимать только два значения: соб.А-наступило с вер-тью pи 0-соб.А не наступило, с вер-ю q=1-p. Случайная дискретная величина xi-является попарно независимой и дисперсии их ограничены, следовательно к данной величине можно применить теорему Чебышева: <img width=«187» height=«34» src=«ref-2_1449208526-1316.coolpic» v:shapes="_x0000_i1041">Мат.ожидание каждой из величин xi— равно вер-ти pнаступления события, поэтому <img width=«171» height=«34» src=«ref-2_1449209842-1271.coolpic» v:shapes="_x0000_i1043">. Необходимо доказать, что дробь <img width=«138» height=«32» src=«ref-2_1449211113-747.coolpic» v:shapes="_x0000_i1045">равна относительной частоте m/nпоявления соб.А, в nиспытаниях. Каждая из величин xi, где i-1,2,3…n, при наступлении соб.А в соответст. испытании принимает значение равное 1, следовательно, тогда в  испытаниях, с учётом последнего равенства можно записать: limp(|m/n-p|<E)=1, ч.т.д.

При использовании теоремы Бернулли необходимо учитывать то, что из неё рав-во limm/n=p. Главным утверждением теоремы является то, что  при достаточно большом кол-ве испытаний относительная частота mбудет сколь угодно мало отличаться от постоянной вер-ти pнаступления события в каждом испытании, т.е. теорема Бернулли утверждает, что при       , что относительная частота              .




































26. Интегральный функции распределения. Вероятность случайной величины.

Рассмотрим случ.величину Х, возможные значения которой заполняют интервал (a;b). В данном случае нельзя указать все возможные значения х, поэтому для описания данного случ. величины используется интегральная функция распределения вероятностей. Обозначим через F(x)- вероятность соб., состоящего в том, что случ.велич. х меньшее х. х-действительное чилсо. Но вероятность соб. Х<xобозначим, как F(x) в том случае, если число х будет изменяться, то будет изменяться и F(x). Определение: интегральной функцией распределения называется функция F(x), которая определена для каждого значения х, вероятность того, что случайная величина Х примет значение < x, т.е. F(x)=Р, когда Х<x. F(x)= P(X<x)

Случайная величина Х- является непрерывной в том случае, если её интегральная функция распределения F(x) непрерывно дифференцируема. Свойства интегрируемой функции распределения вероятности.1). Значение интегрируемой функции заключается в интервале (0;1), 0≤F(x) ≤1. Док-во: данное свойство основывается на определении интегральной функции, как вер-ти, а вер-ть-неотрицательное число, которое не превышает 1. 2). F(x)-неубывающая функция, F(x2)≥ F(x1), если х2>х1. Следствие1: Вероятность того, что случайная величина примет значение в интервале (a;b) равно прирощённо данной функции в этом интервале. P(a≤ x≤b) = F(b)-F(a). Следствие2: Вероятность того, что нсв Х примет одно определённое значение =0. 3). Если возможные значения случайной величины принадлежат (a;b), то F(x)=0, при x<a; F(x)=1, при x≥b. Следствие: если возможные значения интервальной случайной величины расположены на всей оси Ох, то справедливы предельные соотношения: limF(x)=0 и limF(x)=1.
27. Дифференциальная функция распределений вероятностей нвс.

Определение:Дифер. функцией распределения f(x) называется первая производная от интегральной функции распределения. f(x)=F’(x)=> интегральная функция является первообразной для диф-ой функции.

Диф-ая функция непременима для задания распределения вероятностей дискретной случайной величины, если известна f(x) нсв, то на её основе можно вычислить вероятность того, что нсв примет значение, принадлежащее заранее заданному интервалу. Теорема:Вероятность того, что нсв Х примет значение, принадлежащее (a;b) = опред.интегр. диф.функции, взятому в пределах от а до b.

P(a<x<b)= <img width=«51» height=«34» src=«ref-2_1449211860-606.coolpic» v:shapes="_x0000_i1048">


Теорема:Если известна диф.функция f(x), то интегральная функцию F(x) можно найти по формуле: <img width=«97» height=«30» src=«ref-2_1449212466-714.coolpic» v:shapes="_x0000_i1050">

29. Закон равномерного распределения вероятностей.

При решении задач, которые выдвигает практика, сталкиваются с различными распределениями нсв. Диф.функция этих распределений называется также законами распределения. Определение: Распределение вер-тей нсв называют равномерным, если на интервале, котором все возможные значения случайной величины, дифферен.функция имеет постоянное значение.

Закон распределения нсв можно определить заданием, либо интегрир. F(x) нсв, либо диффер.функции f(x). Для равномерного распределения интегральной функции F(x) непрерывной случайной величины имеет вид и график:

            0, прих≤0

F(x)=<img width=«47» height=«33» src=«ref-2_1449213180-543.coolpic» v:shapes="_x0000_i1052">= x-a/b-a, а≤x≤b

<img width=«228» height=«72» src=«ref-2_1449213723-250.coolpic» v:shapes="_x0000_s1026 _x0000_s1027 _x0000_s1028 _x0000_s1029"><img width=«228» height=«72» src=«ref-2_1449213973-73.coolpic» v:shapes="_x0000_i1046">

Определим диф.функцию равномерного распределения при условии, что все возможные значения случайной величины находятся в интервале (a;b), на котором диф.функция сохраняет постоянное значение. f’(x)=c, т.е.

        f(x)=  C, при a<x<b

                   0, при x≤a, x≥b

По свойству (2) функция f(x) есть не собственные интеграл

<img width=«268» height=«34» src=«ref-2_1449214046-1224.coolpic» v:shapes="_x0000_i1054">

Таким образом c=1/b-a. График диф.функции f(x) нсв равномерного распределения выглядит так:

<img width=«241» height=«77» src=«ref-2_1449215270-248.coolpic» v:shapes="_x0000_s1030 _x0000_s1031 _x0000_s1032 _x0000_s1033"><img width=«241» height=«77» src=«ref-2_1449215518-73.coolpic» v:shapes="_x0000_i1053">
    продолжение
--PAGE_BREAK--






















28. Свойство дифферен.функции распределения вероят-тей

1. Дифферен.ф-ция неотрицательна f(x)<img width=«17» height=«15» src=«ref-2_1449215591-141.coolpic» v:shapes="_x0000_i1056">0. Интегральная ф-ция есть неубывающая ф-ция => её производная. <img width=«66» height=«17» src=«ref-2_1449215732-511.coolpic» v:shapes="_x0000_i1058"> есть ф-ция неотрицательная.  График дифферен.функции называется кривой распределения.

2. Несобственный интергал от дифферен.функции в пределах от <img width=«89» height=«12» src=«ref-2_1449216243-355.coolpic» v:shapes="_x0000_i1060"> : <img width=«77» height=«34» src=«ref-2_1449216598-644.coolpic» v:shapes="_x0000_i1062">

Доказательство: Несобственный интергал – это выражение вероят-ти события состоящего в том, что СВ х примет значение принадлежащее интервалу <img width=«54» height=«15» src=«ref-2_1449217242-456.coolpic» v:shapes="_x0000_i1064">, достоверное событие р=1. В том случае если все значения СВ х находятся в пределах интервала (a;b)

<img width=«67» height=«34» src=«ref-2_1449217698-626.coolpic» v:shapes="_x0000_i1065">

<img width=«154» height=«31» src=«ref-2_1449218324-1175.coolpic» v:shapes="_x0000_i1066">

<img width=«57» height=«15» src=«ref-2_1449219499-472.coolpic» v:shapes="_x0000_i1068"> => предел отношения вероят-ти того. Что НСВ х примет значение а интервале<img width=«57» height=«15» src=«ref-2_1449219499-472.coolpic» v:shapes="_x0000_i1070"> к длине этого интервала. <img width=«47» height=«15» src=«ref-2_1449220443-288.coolpic» v:shapes="_x0000_i1072"> равен значению интервал.ф-ции в точке Х. Значение <img width=«22» height=«13» src=«ref-2_1449220731-380.coolpic» v:shapes="_x0000_i1074"> в точке Х определяется как плотность вероят-ти в данной точке, те.е дифферен.ф-ция <img width=«22» height=«13» src=«ref-2_1449220731-380.coolpic» v:shapes="_x0000_i1076"> определяет плотность распределения вероят-ти для точки Х.
30. Условные характеристики НСВ

Пусть х – это НСВ, которая задана дифферен.ф-цией <img width=«22» height=«13» src=«ref-2_1449220731-380.coolpic» v:shapes="_x0000_i1078">. Предположим, что все возможные значения величины х принадлежат отрезку [a;b]. Разобьем этот отрезок на n
частей, длины которых <img width=«99» height=«15» src=«ref-2_1449221871-534.coolpic» v:shapes="_x0000_i1080"> и выделим в каждой из них произвольную точку <img width=«10» height=«15» src=«ref-2_1449222405-196.coolpic» v:shapes="_x0000_i1082">, где i=1,2,3,…,n. Для того чтобы дать определение матем.ожиданию НСВ, составим сумму произведений возможных значений<img width=«14» height=«15» src=«ref-2_1449222601-198.coolpic» v:shapes="_x0000_i1084"> на вероят-ти их попадания в интервал <img width=«23» height=«15» src=«ref-2_1449222799-246.coolpic» v:shapes="_x0000_i1086">

<img width=«144» height=«42» src=«ref-2_1449223045-993.coolpic» v:shapes="_x0000_i1087">

Так как произведение <img width=«39» height=«13» src=«ref-2_1449224038-437.coolpic» v:shapes="_x0000_i1089"> приближенно равно вероят-ти попадания х в интервал <img width=«20» height=«15» src=«ref-2_1449224475-227.coolpic» v:shapes="_x0000_i1091">. В результате перехода к пределу при условии, что длина наибольшего из полученных отрезков стремится к 0, получим открытый интеграл <img width=«51» height=«34» src=«ref-2_1449224702-597.coolpic» v:shapes="_x0000_i1093">

Матем.ожидание НСВ Х, чьи возможные значения принадлежат отрезку [a;b] – это число равное определенному интегралу вида <img width=«93» height=«33» src=«ref-2_1449225299-739.coolpic» v:shapes="_x0000_i1095">. В том случае если возможные значения НСВ Х принадлежат всей оси Х, то <img width=«25» height=«13» src=«ref-2_1449226038-404.coolpic» v:shapes="_x0000_i1097"> будет равно интегралу <img width=«53» height=«34» src=«ref-2_1449226442-594.coolpic» v:shapes="_x0000_i1099">. Последнее справедливо при условии, что несобственный интеграл сходится абсолютно, т.е. существует интеграл вида

<img width=«61» height=«34» src=«ref-2_1449227036-633.coolpic» v:shapes="_x0000_i1100">


Если данное условие не выполняется, то значение интеграла независимо от скорости снижения нижнего предела к <img width=«24» height=«11» src=«ref-2_1449227669-221.coolpic» v:shapes="_x0000_i1102">, а верхнего – к <img width=«27» height=«15» src=«ref-2_1449227890-233.coolpic» v:shapes="_x0000_i1104"> по отдельности.

Дисперсия НСВ Х– это матем.ожидание квадрата её отклонения в том случае, если возможное значение НСВ Х принадлежит [a;b], то дисперсия определяется как <img width=«137» height=«33» src=«ref-2_1449228123-1125.coolpic» v:shapes="_x0000_i1106">

Если возможное значение НСВ Х принадлежит всей оси ОХ, то дисперсия равна

<img width=«140» height=«33» src=«ref-2_1449229248-906.coolpic» v:shapes="_x0000_i1107">

Среднее квадратическое отклонение НСВ Х– это корень квадратный из дисперсии данной величины <img width=«73» height=«31» src=«ref-2_1449230154-636.coolpic» v:shapes="_x0000_i1109">

Те свойства матем.ожидания и дисперсии, которые были определены для дискретных случайных велични, справедливы и для НСВ Х.
31. Нормальное распределение

Нормальное распределение вероят-ти НСВ описывается дифференциальной функцией вида

f(x)=<img width=«289» height=«73» src=«ref-2_1449230790-73.coolpic» v:shapes="_x0000_i1111">

Данная ф-ция задается 2 параметрами a
и G, т.е. достаточно определить эти параметры, чтобы задать нормал. Распределение. Параметр а в этом случае понимается как матем. ожидание, а параметр G– как среднее квадратическое отклонение нормал. распределения.

Рассмотрим параметр а дифферен. Ф-ции нормал.распределения вероят-ти. Матем.ожидание нормал. распределения НСВ находится по формуле:

M(x) = <img width=«198» height=«35» src=«ref-2_1449230863-1356.coolpic» v:shapes="_x0000_i1113">

Введем новую переменную <img width=«50» height=«19» src=«ref-2_1449232219-408.coolpic» v:shapes="_x0000_i1115"> ; zG+ a= x, тогда dx= Gdz. С учетом новой переменной zматем.ожидание можно записать в виде:

M(x) =

1-ое слагаемое  = 0; 2-ое слагаемое  = a. Таким образом матем.ожидание нормал.распределения равно параметру а.

Рассмотрим параметр Gдифферен.ф-ции нормал.распределния вероят-ти. Дисперсия нормал.распределния НСВ Х с учетом того что М(х)=а имеет вид:

D(x) = <img width=«120» height=«36» src=«ref-2_1449232627-801.coolpic» v:shapes="_x0000_i1117">

Вновь используем переменную z, на основе к-рой получим след. равенство: zG+a=x; dx=Gdz. С учетом новой переменной zдисперсию можно записать в след.виде:

D(x) = <img width=«91» height=«34» src=«ref-2_1449233428-671.coolpic» v:shapes="_x0000_i1119"> 

В результате интегрирования данного выражения по частям получим D(x) =  <img width=«16» height=«16» src=«ref-2_1449234099-218.coolpic» v:shapes="_x0000_i1121"> , следовательно G(x) = <img width=«33» height=«20» src=«ref-2_1449234317-465.coolpic» v:shapes="_x0000_i1123"> . Таким образом среднее квадратическое отклонение нормал.распределения равно параметру G. Если нормал.распределения определяется М(х) = 0 и G(x) = 1, то такое распределение называется нормальным, и дифферен.ф-ция нормал.распределения имеет вид:

<img width=«109» height=«33» src=«ref-2_1449234782-770.coolpic» v:shapes="_x0000_i1124">


Вероят-ть того, что Х примет значение принадлежащее интервалу <img width=«26» height=«15» src=«ref-2_1449235552-367.coolpic» v:shapes="_x0000_i1126">), находиться по формуле:  , где а – мат.ожидание, G– среднее квадратическое откл-е

<img width=«249» height=«84» src=«ref-2_1449235919-73.coolpic» v:shapes="_x0000_i1128">    — функция Лапласа



















































































32. Нормальная кривая

Дифферен.ф-ция нормал.распределенной НСВ  имеет вид <img width=«131» height=«31» src=«ref-2_1449235992-987.coolpic» v:shapes="_x0000_i1130">

График дифферен.ф-ция нормал.распределения вероят-ти наз-ся нормал.кривой или кривой Гаусса. Исследуем дифферен.ф-ция нормал.распределения с помощью метода дифферен. Исчисления:

Данная ф-ция определена на всей оси ОХ


Нормал.кривая расположена над осью ОХ, т.к. при всех значениях х ф-ция принимает положительные значения


Предел ф-ции при неограниченном возрастании х равен 0


<img width=«41» height=«20» src=«ref-2_1449236979-409.coolpic» v:shapes="_x0000_i1132">   — это означает, что ось ОХ явл-ся горизонтальной асимптотой.

Найдем 1-ую производную ф-ции для исследования её на экстремум

<img width=«69» height=«17» src=«ref-2_1449237388-481.coolpic» v:shapes="_x0000_i1133">

<img width=«293» height=«37» src=«ref-2_1449237869-1657.coolpic» v:shapes="_x0000_i1134">

При х=а, у’=0; при x< a, y’>0; при x> a, y’<0.

Отсюда следует, что при х= а ф-ция принимает максимальное значение <img width=«70» height=«30» src=«ref-2_1449239526-610.coolpic» v:shapes="_x0000_i1136">

График симметричен относительно прямой х=a. Находим 2-ую производную ф-ции для исследования её на точке перегиба

<img width=«805» height=«16» src=«ref-2_1449240136-2638.coolpic» v:shapes="_x0000_i1137">


<img width=«224» height=«73» src=«ref-2_1449242774-773.coolpic» v:shapes="_x0000_i1138">


А при переходе через эти точки он меняет знак. В обеих этих точках значение ф-ции равно <img width=«99» height=«73» src=«ref-2_1449243547-73.coolpic» v:shapes="_x0000_i1140">   следовательно (a-G;<img width=«113» height=«73» src=«ref-2_1449243620-73.coolpic» v:shapes="_x0000_i1142">) и (a+G;<img width=«113» height=«73» src=«ref-2_1449243693-73.coolpic» v:shapes="_x0000_i1144">) явл-ся точками перегиба

<img width=«120» height=«79» src=«ref-2_1449243766-295.coolpic» v:shapes="_x0000_s1034 _x0000_s1035 _x0000_s1036">При а=0 и G=0
Изменение величины матем.ожидания, т.е величины параметра а дифферен.ф-ции нормал.распределения не меняет формы, а приводит её к сдвигу вдоль оси абцисс. При увеличении а сдвиг вправо, при уменьшении а сдвиг влево
<img width=«117» height=«66» src=«ref-2_1449244061-266.coolpic» v:shapes="_x0000_s1037 _x0000_s1038 _x0000_s1039">



При возрастании Gмаксимальная ордината нормал.кривой убывает, а сама кривая становиться более пологой, те.е сжимается к оси ОХ. При уменьшении нормал.кривая становиться более островершинной и растягивается.

<img width=«103» height=«71» src=«ref-2_1449244327-266.coolpic» v:shapes="_x0000_s1040 _x0000_s1041 _x0000_s1042">



Площадь фигуры ограниченной нормал.кривой и осью ОХ при любых значениях параметров а и Gбудет равно 1.
























































33. Правила 3х сигм

Пусть НСВ Х задана дифферен.ф-цией f(x), тогда по теореме вероят-ти того, что х примет значение принадлежащее интервалу <img width=«26» height=«15» src=«ref-2_1449235552-367.coolpic» v:shapes="_x0000_i1146">), будет равна

<img width=«136» height=«34» src=«ref-2_1449244960-826.coolpic» v:shapes="_x0000_i1147">

Пусть НСВ Х подчиняется нормал.закону распределения. В этом случае вероят-ть того, что Х примет значение принадлежащее интервалу <img width=«26» height=«15» src=«ref-2_1449235552-367.coolpic» v:shapes="_x0000_i1149">), равна

<img width=«192» height=«35» src=«ref-2_1449246153-1252.coolpic» v:shapes="_x0000_i1150">


Можно воспользоваться готовыми таблицами, приведя данную формулу к виду

<img width=«213» height=«107» src=«ref-2_1449247405-1035.coolpic» v:shapes="_x0000_i1151">

Определим вероят-ть что отклонение нормал.распреленной величины Х по абсолютной величине будет меньше заданного положительного числа а, т.е. найдем вероят-ть осуществления вероят-ти

<img width=«87» height=«15» src=«ref-2_1449248440-421.coolpic» v:shapes="_x0000_i1152">

<img width=«95» height=«11» src=«ref-2_1449248861-464.coolpic» v:shapes="_x0000_i1153">

На основании выше приведенной формулы получим

<img width=«453» height=«34» src=«ref-2_1449249325-1821.coolpic» v:shapes="_x0000_i1154">


В этом случае если параметр а равен 0, мы имеем

<img width=«325» height=«34» src=«ref-2_1449251146-1574.coolpic» v:shapes="_x0000_i1155">

Зададим параметру <img width=«11» height=«11» src=«ref-2_1449252720-184.coolpic» v:shapes="_x0000_i1157"> значение равное Gt. получим <img width=«112» height=«17» src=«ref-2_1449252904-682.coolpic» v:shapes="_x0000_i1159">. Если <img width=«10» height=«11» src=«ref-2_1449253586-131.coolpic» v:shapes="_x0000_i1161">=3, то <img width=«16» height=«11» src=«ref-2_1449253717-205.coolpic» v:shapes="_x0000_i1163">=3<img width=«12» height=«11» src=«ref-2_1449253922-139.coolpic» v:shapes="_x0000_i1165">, тогда вероят-ть того, что отклонение нормал.распределенной СВ Х по абсолютной величине будет равно 2Ф(3). Данная вероят-ть выражается в существование G
.
Если НСВ подчиняется нормал.закону распределения, то абсолютная величина её отклонения от матем.ожидания не превосходит утроенного вреднего квадратического отклонения.
34. Теорема Ляпунова

При проведении какого-либо статистического исследования, сопровождающегося сбором данных об изучаемом количественном признаке, всегда сталкиваются с проблемой ошибки данных. Проблема может быть вызвана как несовершенства методов и инструментов, используемых при проведении стат. исследования, так и заранее непредусмотренных факторов. Ошибки делятся на систематические и случайные.

Систематические ошибки – ошибки, вызванные несовершенством методов и инструментов, применяемых при проведении исследования. Теоретически все эти ошибки могут быть исключены. Случайные ошибки – ошибки, которые вызваны под воздействием целой совокупности случайных факторов. Результатом совместного действия всех случайных факторов является суммарная случайная ошибка, которую необходимо оценить. Предположим, что осуществляется серия наблюдений, как CВ Х. Ошибки, которые возникают в ходе произведения наблюдений данной СВ, формируются по воздействием многих незавершенных факторов х1, х2, …, хn. В этом случае ошибка <img width=«11» height=«11» src=«ref-2_1449254061-134.coolpic» v:shapes="_x0000_i1167">, возникающая при наблюдении СВ Х, может быть охарактеризована след.образом <img width=«101» height=«17» src=«ref-2_1449254195-590.coolpic» v:shapes="_x0000_i1169"> , где f– законность образованных ошибок.

В случае если ф-ция fудовлетворяет условию дифферентности по совокупности всех переменных, тогда ф-ция fможет быть предназначена для формулы Пейлора

<img width=«101» height=«40» src=«ref-2_1449254785-784.coolpic» v:shapes="_x0000_i1170">


1-ое линейное приближенное значение ошибки <img width=«11» height=«11» src=«ref-2_1449254061-134.coolpic» v:shapes="_x0000_i1172"> является суммарной независимой СВ:

<img width=«93» height=«40» src=«ref-2_1449255703-757.coolpic» v:shapes="_x0000_i1173">


Ошибка наблюдения<img width=«15» height=«15» src=«ref-2_1449256460-185.coolpic» v:shapes="_x0000_i1175"> является СВ, поэтому для наиболее точной характеристики данной величины необходимо знать закон распределения вероят-тей СВ <img width=«11» height=«11» src=«ref-2_1449254061-134.coolpic» v:shapes="_x0000_i1177">. Решение поставленной проблемы было найдено русским математиком Ляпуновым, который открыл централ.предельную теорему теории вероят-тей.

Следствие из теоремы: если СВ Х – сумма очень большого числа попарно-независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то СВ Х подлежит закону распределения, которых близок к нормал.закону распределения вероят-тей СВ.






















35. Ассиметрия и эксцесс

Теоретическим распределением является распределение вероят-тей случайных величин. Подобное распределение изучается в теории вероят-ти. В том случае если изучаемое распределение вероят-тей отличается от нормал. распределения, то возникает необходимость количественной оценки этого различия. Данное оценивание осуществляется с помощью спец. Характеристик (в частности показатели ассиметрии и эксцесса).

Если СВ подчиняется нормал.закону распределения, то в данном случае показатели ассиметрии и эксцесса равны 0. Если ассиметрия и эксцесс имеют небольшие значения, можно предположить, что изучаемое распределение вероят-ти СВ близок к 0. Если же напротив ассиметрия и эксцесс имеют большие значения, то это является признаком значительного отклонения изучаемой величины от нормал.распределения.

Для оценки ассиметрии используется понятие симметрического распределения, график которого симметричен относительно прямой х=М(х). В данном случае каждый централ.момент нечетного порядка равен 0, т.е.

<img width=«128» height=«15» src=«ref-2_1449256779-647.coolpic» v:shapes="_x0000_i1179">   , когда k=1,3,5…

Для несимметрических распределений централ.моменты нечетного порядка отличны от 0. Следовательно любой из централ.моментов может служить для оценки ассиметрии, кроме централ.момента первого порядка, который равен 0 для любого распределения

<img width=«111» height=«15» src=«ref-2_1449257426-590.coolpic» v:shapes="_x0000_i1181">.    Оценка ассиметрии осуществляется с помощью централ.момента 3-го порядка. Однако величина данного показателя зависит от единиц, в которых изучается СВ.

Для устранения этого недостатка централ.момент <img width=«14» height=«15» src=«ref-2_1449258016-213.coolpic» v:shapes="_x0000_i1183"> делят на показатель G
в кубе, сто позволяет получить безразмерную характеристику.

Ассиметриятеоретического распределения – отношение централ.момента 3-го порядка к кубу среднего квадратического отклонения <img width=«45» height=«26» src=«ref-2_1449258229-446.coolpic» v:shapes="_x0000_i1185"> .   Показатель ассиметрии является положительным, если данная часть кривой распределния на графике расположена справа от М(х) и отрицательным – если слева от М(х).

Показатель эксцесса применяется для оценки большого или меньшего подъема кривой теоретического распределения по сравнению с нормал.кривой. Эксцесс теоретического распределения – это характеристика, которая рассчитывается по формуле <img width=«70» height=«26» src=«ref-2_1449258675-482.coolpic» v:shapes="_x0000_i1187"> . Если СВ подчиняется нормал.закону распределения, то <img width=«11» height=«15» src=«ref-2_1449259157-199.coolpic» v:shapes="_x0000_i1189">=0 следовательно <img width=«16» height=«26» src=«ref-2_1449259356-270.coolpic» v:shapes="_x0000_i1191"> = 3. Если показатель <img width=«11» height=«15» src=«ref-2_1449259157-199.coolpic» v:shapes="_x0000_i1193"> отличен от 0, то кривая этого распределения отличается от нормал.кривой.

<img width=«11» height=«15» src=«ref-2_1449259157-199.coolpic» v:shapes="_x0000_i1195"> > 0  => кривая имеет более высокую и острую вершину, чем нормал.кривая.

<img width=«11» height=«15» src=«ref-2_1449259157-199.coolpic» v:shapes="_x0000_i1197"> < 0  => кривая распределения имеет более низкую и плоскую вершину, чем нормал.кривая. Это при условии, что нормальное и теоретическое распределения имеют одинаковые математ.ожидание и дисперсию.
    продолжение
--PAGE_BREAK--
еще рефераты
Еще работы по маркетингу