Лекция: Методы теории вероятностей и математической статистики

Теория вероятностей – математическая наука, изучающая закономерности случайных явлений. Знание закономерностей, которым подчиняются массовые случайные события, позволяют предвидеть, как эти события будут протекать.

Методы теории вероятностей широко применяются в различных отраслях науки и техники: в теории надежности, в теории массового обслуживания, теоретической физике, астрономии, теории ошибок, теории управления, теории связи и во многих других теоретических и прикладных науках. Теория вероятности служит для обоснования математической статистики.

Математическая статистка – раздел математики, изучающий методы сбора, систематизации и обработки результатов наблюдений с целью выявления статистических закономерностей. Методы математической статистики применяются при планировании организации производства, анализе технологических процессов, для контроля качества продукции и многих других целей.

Статистические программные пакеты сделали методы теории вероятностей и математической статистики более доступными и наглядными, так как трудоемкую работу по расчету статистик, параметров, характеристик, построение таблиц и графиков в основном стал выполнять компьютер, а исследователю осталось выполнить постановку задачи, выбор метода решения и интерпретацию результатов.

Основными методами, используемые в теории вероятностей, являются следующие:

1. классический метод: Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу: P(A) = m/n, где m-число элементарных исходов, благоприятствующих А; n-число всех возможных элементарных исходов испытания.

2. геометрический метод: вероятность попадания точки в область(отрезок, часть плоскости и т.д.). Пусть отрезок l составляет часть отрезка L. На отрезок L на удачу поставлена точка. Это означает выполнение следующих предположений: поставленная точка может оказаться в любой точке отрезка L, вероятность попадания точки на отрезок l пропорциональна длине этого отрезка и не зависит от его расположения относительно отрезка L. В этих предположениях вероятность попадания точки на отрезок l определяется равенством. P= Длинаl/длинаL.

3. теорема сложения вероятностей: Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления: Р(А)+Р(В)=Р(А)+Р(В)-Р(А*В)

4. теорема произведения событий: Произведением двух событий А и В называют событие АВ, состоящее в совместном появлении (совмещении) этих событий другими словами логическое И. Вероятность появления двух зависимых событий равна произведению вероятностей одного из них на вероятность другого вычисленную при условии, что первое событие имело место: Р(А*В)=Р(А)*Р(В/А)=Р(В)*Р(В/А).

Вероятность произведения нескольких событий равна произведению вероятностей этих событий причем вероятность каждого следующего события вычисляется при условии, что все предыдущие имели место. Р(А1; А2…Аn)=Р(А1)*Р(А2/А1)*… *Р(Аn/А1, А2…Аn-1).

5. формула полной вероятности: пусть событие А может появиться вместе с одним из образующих полную группу попарнонесовместных событий Н1, Н2…Нn называемых гипотезами, тогда вероятность события А вычисляется как сумма произведений вероятностей каждой гипотезы на вероятность события А при этой гипотезе .

6. формула Бернулли: испытания проводимые по данной формуле должны быть независимы, количество их должно быть известно заранее и в результате должны произойти два исхода: успех или неуспех. Вероятность того, что в n испытаниях успех осуществится ровно k раз следовательно, неуспех (n-k) раз, вычисляется по следующей формуле:, где Сnk-число сочетаний из n-элементов k, p — вероятность успеха, q — вероятность неуспеха, где q = 1-р.

7. формула Байеса: пусть имеется полная группа попарнонесовместных гипотез Н1, Н2…Нn с известными вероятностями появления. В результате проведения опыта появилось некоторое события А, требуется переоценить вероятности гипотез при условии, что событие А произошло: .

Основными методами математической статистики являются следующие:

1. однофакторный и многофакторный корреляционный анализ — применяется для установления факта зависимости или независимости исследуемой случайной величины от одного или нескольких факторов – рассчитываются коэффициенты коэффициента множественной корреляции R. Степень влияния значения конкретного фактора x на результативный показатель Y оценивается с помощью коэффициента парной корреляции rY,x ,

На основании полученных коэффициентов множественной корреляции строится матрица парных коэффициентов, после чего делается вывод о взаимосвязи факторов с результирующим показателем.

2. регресионный анализ – получение регрессионной модели, т.е. функциональной зависимости результативного показателя Y от значений выбранных факторов. Количественными характеристиками качественности выбранной модели на основании регрессионного анализа чаще всего используются коэффициент множественной корреляции R и коэффициент детерминации R2.

Коэффициент множественной корреляции (индекс корреляции) R считается универсальным, т.к. отражает тесноту связи и точность модели. Чем ближе значение коэффициента к 1, тем точнее построенная модель. Коэффициент детерминации R2 показывает долю вариации значений показателя Y под воздействием изучаемых факторов. То есть коэффициент позволяет количественно определить, какая доля изменений показателя Y учтена в модели и обусловлена влиянием на него факторов.

3. коэффииценный анализ — оценка влияния отдельных факторов регрессионной модели на величину результативного показателя Y. Рассчитываются такие коэффициенты:

1. Коэффициент эластичности показывает, на сколько процентов изменится зависимая величина показателя Y при изменении фактора xj на 1%. Однако он не учитывает степень колеблемости факторов.

2. Бета-коэффициент позволяет определить, на какую часть величины среднего квадратического отклонения изменится зависимая величина Y с изменением соответствующей независимой переменной xj на величину своего среднего квадратического отклонения при фиксированном значении остальных независимых переменных. ,

где — среднее квадратическое отклонение зависимой величины Y, — среднее квадратическое отклонение фактора xj:

4. дельта-коэффициент — позволяет оценить долю влияния каждого фактора xj в суммарном влиянии всех факторов:, где ryj — коэффициент парной корреляции между фактором xj (j=1,…,m) и зависимой величиной Y; R2- коэффициент детерминации.

 


еще рефераты
Еще работы по информатике