Понятие случайного события и его вероятности

Автор работы: Пользователь скрыл имя, 30 Сентября 2012 в 17:28, реферат

Краткое описание

Как уже отмечалось в предисловии, теория вероятностей изучает массовые случайные явления. А что же такое случай? Как к нему относиться? Если нам повезло, говорим о счастливом случае, если нет, то это – несчастливый случай. Однако, в целом, к случайностям мы относимся отрицательно, поскольку заранее не знаем, как себя эта случайность проявит. Конечно, случайность портила и портит жизнь человека, но она ему и помогает. Для борьбы со случайностью разработаны эффективные методы. Выясняется, что описание и формализация случайности является одним из самых мощных инструментов научного описания мира.

Содержание

1. Операции над событиями
2. Элементы комбинаторики
3. Вычисление вероятностей событий
3.1. Классический метод вычисления вероятностей
3.2. Геометрический метод вычисления вероятностей
3.3. Статистический метод вычисления вероятностей
3.4. Условная вероятность
4. Формула полной вероятности и формула Байеса
5. Независимые испытания
6. Локальная теорема Муавра-Лапласа
7. Интегральная теорема Муавра-Лапласа
8. Формула Пуассона
9. Что такое задача, оценки, параметров, распределения?
10. Что такое задача проверки гипотез?

11. Список литературы.

Вложенные файлы: 1 файл

matan1.doc

— 1.06 Мб (Скачать файл)

 

Теорема. Пусть в n  независимых испытаниях вероятность появления события А в каждом испытании постоянна и равна р, 0< р < 1, тогда, для любых -¥ < а < b < ¥, равномерно относительно а, b, при n ® ¥, имеет место асимптотическая оценка

                  ,                (16)

где j(х) - кривая Гаусса, , .

Функция называется функцией Лапласа.

Так как Рn{0 £ k £ n} = 1 для любого n , то из (16) должно следовать, что

.

В самом деле, положим ℑ , тогда

2

.

Введем полярные координаты:

, , , , .

Отсюда 

2 = , ℑ= - интеграл Пуассона.

Следовательно, .

Для практических приложений вместо (16) используют формулу:

                            Р {k1 £ k £ k2}» Ф (в ) – Ф (а ),                                                    (17)

где

,
.

Учитывая, что Ф (+¥) = 1, легко получить Ф (х) + Ф (-х) = 1.

В самом деле, пусть х > 0, тогда , а .

Отсюда 

Ф (х) + Ф (-х) =

  • Функция - табулирована, ее значения приведены в табл. 4 приложения.

Таблица составлена для х < 0, а для х > 0, значения находятся по формуле

Ф (х) + Ф (-х) = 1.

Пример. Решить пример п 1.5, б).

Решение. Имеем

, , .

 По табл. 5 приложения находим

.

Отсюда  .

  • Сравнивая решение задачи п.1.5. а), б), можно предположить, что, так как – наивероятнейшее число, с большой вероятностью реализуется событие { 40 £ k £ 60}, с центром в точке k0:
  • .

    Заметим, что  характеризует средние отклонения от среднего значения np (чем меньше , тем «круче» кривая Гаусса в точке симметрии).

     

     

    8. Формула Пуассона

     

    Приближенные формулы  Муавра-Лапласа перестают быть эффективными при больших отклонениях вероятности р или q от 0,5 и бессмысленны при р® 0, поскольку в этом случае, для разумного приближения, требуется проведение очень большого числа независимых испытаний.

    Однако, во многих задачах  пищевой промышленности, биологии, сельского хозяйства, в технике и электронике, возникают именно такие задачи, то есть приходится рассматривать объекты, состоящие из очень большого числа однородных элементов, каждый из которых имеет малую реализацию целевой функции (например, всхожесть зерна, выход из строя транзистора и др.).

    Возникает задача оценки, например, вероятности всхожести  семян, именно для таких случаев. Соответствующая оценка предложена Пуассоном.

    Пусть в n независимых испытаниях вероятность появления события А, в каждом из испытаний, равна р (причем р близко к нулю), тогда имеет место оценка Пуассона:

    , где l = np, k << n,

    (где символ  «<< » читается: «много меньше»).

    В самом деле, при k = 0, имеем

    .

    Рассмотрим отношение

     
    .

    После упрощений, получаем

    , так как k << n , q ®1 и np = l.

    Таким образом, имеем

    , , .

    Окончательно, получим

    , .                                    (18)

    Формула , , называется формулой Пуассона. Очевидно, что .

    Значения  формулы Пуассона для различных k и l представлены в приложении (табл. 2).

    Пример. В книге на 1000 страниц 100 опечаток. Какова вероятность обнаружить, в наудачу взятой странице, хотя бы одну опечатку?

    Решение. Имеем n = 100, р = 0,001, np = 0,1. В силу независимости выбора страниц искомая вероятность находится по формуле:

    .

    Из формулы (18) получаем .

    Таким образом, .

    Полученное значение вероятности согласуется и с  интуитивным смыслом, так как  в среднем одна опечатка приходится на 10 страниц.

    Рассмотренные нами приближенные формулы для формулы Бернулли имеют важное самостоятельное значение. В качестве приложения оценим событие , где - частота, e > 0.

    Прежде всего, формулу (17), в интегральной теореме Муавра- Лапласа, преобразуем к виду:

    .

    Отсюда

    . Таким образом:

    .                                      (19)

    Асимптотическая формула (19) является одной из теорем закона больших чисел (теорема Бернулли п. 3.1); и обосновывает определение статистической вероятности (см. формулу 4, п.1.3.2.). Для практических приложений, вместо (19), обычно пользуются приближенной формулой:

    .                                    (20)

    Это трансцендентное  уравнение всегда имеет решение, если неизвестное только одно.

    Пример. Сколько повторных испытаний симметричной монеты нужно провести, чтобы с вероятностью не меньшей 0,98, частота появления герба отклонилась от его вероятности  не более чем на 0,01.

    Решение. Из (20), при e = 0,01, р = 0,5, имеем

    , .

    По табл. 4 приложения значение аргумента находим из равенств

    Ф (х) = 0,01Þ -0,02× = -2,3

    или      Þ .

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    Что такое задача, оценки, параметров, распределения?

    Точечная оценка предполагает нахождение единственной числовой величины, которая и принимается за значение параметра. Такую оценку целесообразно определять в тех случаях, когда объем ЭД достаточно велик. Причем не существует единого понятия о достаточном объеме ЭД, его значение зависит от вида оцениваемого параметра (к этому вопросу предстоит вернуться при изучении методов интервальной оценки параметров, а предварительно будем считать достаточной выборку, содержащую не менее чем 10 значений). При малом объеме ЭД точечные оценки могут значительно отличаться от истинных значений параметров, что делает их непригодными для использования.

    Задача точечной оценки параметров в типовом варианте постановки состоит в следующем

    Имеется: выборка наблюдений (x1, x2, …, xn) за случайной величиной Х. Объем выборки n фиксирован.

    Известен вид закона распределения величины Х, например, в форме плотности распределения f(T, x), где T – неизвестный (в общем случае векторный) параметр распределения. Параметр является неслучайной величиной.

    Требуется найти оценку q параметра T закона распределения.

    Ограничения: выборка  представительная.

    Существует несколько  методов решения задачи точечной оценки параметров, наиболее употребительными из них являются методы максимального (наибольшего) правдоподобия, моментов и квантилей.

    Метод максимального правдоподобия

    Метод предложен Р. Фишером  в 1912 г. Метод основан на исследовании вероятности получения выборки  наблюдений (x1, x2, …, xn). Эта вероятность равна f(х1, T) f(х2, T) … f(хп, T) dxdx… dxn.

    Совместная плотность  вероятности 

     

    L(х1, х…, х; T) = f(х1, T) f(х2, T) … f(хn, T),

    (4.1)

    рассматриваемая как  функция параметра T, называется функцией правдоподобия.

    В качестве оценки q параметра T следует взять то значение, которое обращает функцию правдоподобия в максимум. Для нахождения оценки необходимо заменить в функции правдоподобия Т на q и решить уравнение ¶ L/¶ q = 0. В целях упрощения вычислений переходят от функции правдоподобия к ее логарифму ln L. Такое преобразование допустимо, так как функция правдоподобия – положительная функция, и она достигает максимума в той же точке, что и ее логарифм. Если параметр распределения векторная величина q =(q 1, q 2, …, q n), то оценки максимального правдоподобия находят из системы уравнений

    ¶ ln L(q 1, q 2, …, q n) /¶ = 0;

    ¶ ln L(q 1, q 2, …, q n) /¶ = 0;

    . . . . . . . . .

    ¶ ln L(q 1, q 2, …, q n) /¶ = 0.

    (4.2)

    Для проверки того, что  точка оптимума соответствует максимуму  функции правдоподобия, необходимо найти вторую производную от этой функции. И если вторая производная  в точке оптимума отрицательна, то найденные значения параметров максимизируют функцию.

    Итак, нахождение оценок максимального правдоподобия включает следующие этапы: построение функции  правдоподобия (ее натурального логарифма); дифференцирование функции по искомым  параметрам и составление системы уравнений; решение системы уравнений для нахождения оценок; определение второй производной функции, проверку ее знака в точке оптимума первой производной и формирование выводов.

    Пример. Будем считать, что случайная величина Х, выборка значений которой представлена в табл. 2.3, имеет нормальное распределение. Необходимо найти оценки максимального правдоподобия параметров m и s этого распределения.

    Решение. Функция правдоподобия для выборки ЭД объемом n

    .

    Логарифм функции правдоподобия

     

    Система уравнений для  нахождения оценок параметров

     

    Из первого уравнения  следует:  т.е. среднее арифметическое является оценкой максимального правдоподобия для математического ожидания. Из второго уравнения можно найти . Эмпирическая дисперсия является смещенной. После устранения смещения .

    Фактические значения оценок параметров: m =27,51, s = 0,91.

    Для проверки того, что  полученные оценки максимизируют значение функции правдоподобия, возьмем  вторые производные

     

    Вторые производные  от функции ln L(m , s ) независимо от значений параметров меньше нуля, следовательно, найденные значения параметров являются оценками максимального правдоподобия.

    Метод максимального  правдоподобия позволяет получить состоятельные, эффективные (если таковые  существуют, то полученное решение даст эффективные оценки), достаточные, асимптотически нормально распределенные оценки. Этот метод может давать как смещенные, так и несмещенные оценки. Смещение удается устранить введением поправок. Метод особенно полезен при малых выборках. Оценка инвариантна относительно преобразования параметра, т.е. оценка некоторой функции j (Т) от параметра Т является эта же функция от оценки j (q ). Если функция максимального правдоподобия имеет несколько максимумов, то из них выбирают глобальный.

    Метод моментов

    Метод предложен К. Пирсоном в 1894 г. Сущность метода:

    выбирается столько  эмпирических моментов, сколько требуется  оценить неизвестных параметров распределения. Желательно применять  моменты младших порядков, так  как погрешности вычисления оценок резко возрастают с увеличением порядка момента;

    вычисленные по ЭД оценки моментов приравниваются к теоретическим  моментам;

    параметры распределения  определяются через моменты, и составляются уравнения, выражающие зависимость  параметров от моментов, в результате получается система уравнений. Решение этой системы дает оценки параметров распределения генеральной совокупности.

     

     

     

    Что такое задача проверки гипотез?

    Статистическая  проверка гипотез является вторым после  статистического оценивания параметров распределения и в то же время важнейшим разделом математической статистики.

    Методы математической статистики позволяют проверить  предположения о законе распределения  некоторой случайной величины (генеральной  совокупности), о значениях параметров этого закона (например Mx, Dx ), о наличии корреляционной зависимости между случайными величинами, определенными на множестве объектов одной и той же генеральной совокупности.

    Пусть по некоторым  данным имеются основания выдвинуть  предположения о законе распределения или о параметре закона распределения случайной величины (или генеральной совокупности, на множестве объектов которой определена эта случайная величина). Задача заключается в том, чтобы подтвердить или опровергнуть это предположение, используя выборочные (экспериментальные) данные.

    Гипотезы о  значениях параметров  распределения  или о сравнительной величине параметров двух распределений называются параметрическими гипотезами.

    Гипотезы о  виде распределения называются непараметрическими гипотезами.

    Проверить статистическую гипотезу – это значит проверить, согласуются ли данные, полученные из выборки с этой гипотезой. Проверка осуществляется с помощью статистического критерия. Статистический критерий – это случайная величина, закон распределения которой (вместе со значениями параметров) известен в случае, если принятая гипотеза справедлива. Этот критерий называют еще критерием согласия (имеется в виду согласие принятой гипотезы с результатами, полученными из выборки).

    Гипотезу, выдвинутую для проверки ее согласия с выборочными данными, называют нулевой гипотезой и обозначают H0. Вместе с гипотезой H0 выдвигается альтернативная или конкурирующая гипотеза, которая обозначается H1. Например:

    1)

    H0: Mx= 0

    2)

    H0: Mx= 0

    3)

    H0: Mx= 0

     

    H1: Mx¹ 0

     

    H1: Mx> 0

     

    H1: Mx= 2

    Информация о работе Понятие случайного события и его вероятности