Роль и значение математики, в научно-теоретической и предметно-практической деятельности специалистов. Теория вероятностей (основные пон

Автор работы: Пользователь скрыл имя, 28 Ноября 2013 в 18:33, реферат

Краткое описание

В нашей стране новый период развития теории вероятностей открывается деятельностью С. Н. Бернштейна, значительно обобщившего классические предельные теоремы Чебышева, Ляпунова и Маркова и впервые в России широко поставившего работу по применениям теории вероятностей к естествознанию. В Москве А. Я. Хинчин и А. Н. Колмогоров начали с применения к вопросам теории вероятностей методов теории функций действительного переменного. Позднее (в 30-х гг.) они (и Е. Е. Слуцкий) заложили основы теории случайных процессов. В. И. Романовский (Ташкент) и Н. В. Смирнов (Москва) поставили на большую высоту работу по применениям теории вероятностей к математической статистике. Кроме обширной московской группы специалистов по теории вероятностей, в настоящее время в России разработкой проблем В. т. занимаются в Ст-Петербурге и в Киеве.

Содержание

1.Математическое моделирование системных элементов.
Этапы математизации…………………………………………………..1
2.Интерпретации в математическом моделировании. Виды и уровни интерпретации………………………………………………………......3
3.Теория вероятностей…………………………………………………7
4.Предмет теории вероятностей. Основные понятия………………..7
5.Предельные теоремы. Случайные процессы. ……………………14
6.Историческая справка………………………………………………16
7.Список литературы………………………………………………….18

Вложенные файлы: 1 файл

Реферат по математике.rtf

— 191.05 Кб (Скачать файл)

Назовем частотой события А в данной серии из n испытаний (то есть из n повторных осуществлений условий S) отношение h = m/n числа m тех испытаний, в которых А наступило, к общему их числу n. Наличие у события А при условиях S определённой вероятности, равной р, проявляется в том, что почти в каждой достаточно длинной серии испытаний частота события А приблизительно равна р.

Статистические закономерности, то есть закономерности, описываемые схемой типа (б), были впервые обнаружены на примере азартных игр, подобных игре в кости. Очень давно известны также статистические закономерности рождения, смерти (например, вероятность новорождённому быть мальчиком равна 0,515). Конец 19 в. и 1-я половина 20 в. отмечены открытием большого числа статистических закономерностей в физике, химии, биологии и т.п.

Возможность применения методов теории вероятностей к изучению статистических закономерностей, относящихся к весьма далёким друг от друга областям науки, основана на том, что вероятности событий всегда удовлетворяют некоторым простым соотношениям, о которых будет сказано ниже (см. раздел Основные понятия теории вероятностей). Изучение свойств вероятностей событий на основе этих простых соотношений и составляет предмет теории вероятностей.

Основные понятия теории вероятностей.

Наиболее просто определяются основные понятия теории вероятностей как математической дисциплины в рамках так называемой элементарной теории вероятностей. Каждое испытание Т, рассматриваемое в элементарной теорией вероятностей, таково, что оно заканчивается одним и только одним из событий E1, E2,..., ES (тем или иным, в зависимости от случая). Эти события называются исходами испытания. С каждым исходом Ek связывается положительное число рк - вероятность этого исхода. Числа pk должны при этом в сумме давать единицу. Рассматриваются затем события А, заключающиеся в том, что "наступает или Ei, или Ej,..., или Ek". Исходы Ei, Ej,..., Ek называются благоприятствующими А, и по определению полагают вероятность Р (А) события А, равной сумме вероятностей благоприятствующих ему исходов:

P (A) = pi + ps + … + pk. (1)

Частный случай p1 = p2 =... ps = 1/S приводит к формуле

Р (А) = r/s. (2)

Формула (2) выражает так называемое классическое определение вероятности, в соответствии с которым вероятность какого-либо события А равна отношению числа r исходов, благоприятствующих А, к числу s всех "равновозможных" исходов. Классическое определение вероятности лишь сводит понятие "вероятности" к понятию "равно возможности", которое остаётся без ясного определения.

Пример. При бросании двух игральных костей каждый из 36 возможных исходов может быть обозначен (i, j), где i - число очков, выпадающее на первой кости, j - на второй. Исходы предполагаются равновероятными. Событию А - "сумма очков равна 4", благоприятствуют три исхода (1; 3), (2; 2), (3; 1). Следовательно, Р (A) = 3/36 = 1/12.

Исходя из каких-либо данных событий, можно определить два новых события: их объединение (сумму) и совмещение (произведение). Событие В называется объединением событий A 1, A 2,..., Ar,-, если оно имеет вид: "наступает или A1, или А2,..., или Ar".

Событие С называется совмещением событий A1, А.2,..., Ar, если оно имеет вид: "наступает и A1, и A2,..., и Ar". Объединение событий обозначают знаком È, а совмещение - знаком Ç. Таким образом, пишут:

B = A1 È A2 È … È Ar, C = A1 Ç A2 Ç … Ç Ar.

События А и В называют несовместными, если их одновременное осуществление невозможно, то есть если не существует среди исходов испытания ни одного благоприятствующего и А, и В.

С введёнными операциями объединения и совмещения событий связаны две основные теоремы В. т. - теоремы сложения и умножения вероятностей.

Теорема сложения вероятностей. Если события A1, A2,..., Ar таковы, что каждые два из них несовместны, то вероятность их объединения равна сумме их вероятностей.

Так, в приведённом выше примере с бросанием двух костей событие В - "сумма очков не превосходит 4", есть объединение трёх несовместных событий A2, A3, A4, заключающихся в том, что сумма очков равна соответственно 2, 3, 4. Вероятности этих событий 1/36; 2/36; 3/36. По теореме сложения вероятность Р (В)равна

1/36 + 2/36 + 3/36 = 6/36 = 1/6.

Условную вероятность события В при условии А определяют формулой что, как можно показать, находится в полном соответствии со свойствами частот. События A1, A2,..., Ar называются независимыми, если условная вероятность каждого из них при условии, что какие-либо из остальных наступили, равна его "безусловной" вероятности

Теорема умножения вероятностей. Вероятность совмещения событий A1, A2,..., Ar равна вероятности события A1,умноженной на вероятность события A2, взятую при условии, что А1 наступило,..., умноженной на вероятность события Ar при условии, что A1, A2,..., Ar-1 наступили. Для независимых событий теорема умножения приводит к формуле:

P (A1 Ç A2 Ç … Ç Ar) = P (A1) Ї P (A2) Ї … Ї P (Ar), (3)

то есть вероятность совмещения независимых событий равна произведению вероятностей этих событий. Формула (3) остаётся справедливой, если в обеих её частях некоторые из событий заменить на противоположные им.

Пример. Производится 4 выстрела по цели с вероятностью попадания 0,2 при отдельном выстреле. Попадания в цель при различных выстрелах предполагаются независимыми событиями. Какова вероятность попадания в цель ровно три раза?

Каждый исход испытания может быть обозначен последовательностью из четырёх букв [напр., (у, н, н, у) означает, что при первом и четвёртом выстрелах были попадания (успех), а при втором и третьем попаданий не было (неудача)]. Всего будет 2Ї2Ї2Ї2 = 16 исходов. В соответствии с предположением о независимости результатов отдельных выстрелов следует для определения вероятностей этих исходов использовать формулу (3) и примечание к ней. Так, вероятность исхода (у, н. н, н) следует положить равной 0,2Ї0,8Ї0,8Ї0,8 = 0,1024; здесь 0,8 = 1-0,2 - вероятность промаха при отдельном выстреле. Событию "в цель попадают три раза" благоприятствуют исходы (у, у, у, н), (у, у, н, у), (у, н, у, у). (н, у, у, у), вероятность каждого одна и та же:

0,2Ї0,2Ї0,2Ї0,8 =...... =0,8Ї0,2Ї0,2Ї0,2 = 0,0064;

следовательно, искомая вероятность равна

4Ї0,0064 = 0,0256.

Обобщая рассуждения разобранного примера, можно вывести одну из основных формул теории вероятностей: если события A1, A2,..., An независимы и имеют каждое вероятность р, то вероятность наступления ровно m из них равна

Pn (m) = Cnmpm (1 - p) n-m; (4)

здесь Cnm обозначает число сочетаний из n элементов по m.  При больших n вычисления по формуле (4) становятся затруднительными. Пусть в предыдущем примере число выстрелов равно 100, и ставится вопрос об отыскании вероятности х того, что число попаданий лежит в пределах от 8 до 32. Применение формулы (4) и теоремы сложения даёт точное, но практически мало пригодное выражение искомой вероятности

Приближённое значение вероятности х можно найти по теореме Лапласа причём ошибка не превосходит 0,0009. Найденный результат показывает, что событие 8 £ m £ 32 практически достоверно. Это самый простой, но типичный пример использования предельных теорем теории вероятностей.

К числу основных формул элементарной теории вероятностей относится также так называемая формула полной вероятности: если события A1, A2,..., Ar попарно несовместны и их объединение есть достоверное событие, то для любого события В его вероятность равна сумме

Теорема умножения вероятностей оказывается особенно полезной при рассмотрении составных испытаний. Говорят, что испытание Т составлено из испытаний T1, T2,..., Tn-1, Tn, если каждый исход испытания Т есть совмещение некоторых исходов Ai, Bj,..., Xk, Yl соответствующих испытаний T1, T2,..., Tn-1, Tn. Из тех или иных соображений часто бывают известны вероятности

P (Ai), P (Bj/Ai), …, P (Yl/Ai Ç Bj Ç … Ç Xk). (5)

По вероятностям (5) с помощью теоремы умножения могут быть определены вероятности Р (Е) для всех исходов Е составного испытания, а вместе с тем и вероятности всех событий, связанных с этим испытанием (подобно тому, как это было сделано в разобранном выше примере). Наиболее значительными с практической точки зрения представляются два типа составных испытаний: а) составляющие испытания не зависимы, то есть вероятности (5) равны безусловным вероятностям P (Ai), P (Bj),..., P (Yl); б) на вероятности исходов какого-либо испытания влияют результаты лишь непосредственно предшествующего испытания, то есть вероятности (5) равны соответственно: P (Ai), P (Bj /Ai),..., P (Yi / Xk). В этом случае говорят об испытаниях, связанных в цепь Маркова. Вероятности всех событий, связанных с составным испытанием, вполне определяются здесь начальными вероятностями Р (Аi) и переходными вероятностями P (Bj / Ai),..., P (Yl / Xk)

Случайные величины. Если каждому исходу Er испытания Т поставлено в соответствие число х,, то говорят, что задана случайная величина X. Среди чисел x1, х2,......, xs могут быть и равные; совокупность различных значений хг при r = 1, 2,..., s называют совокупностью возможных значений случайной величины. Набор возможных значений случайной величины и соответствующих им вероятностей называется распределением вероятностей случайной величины. Так, в примере с бросанием двух костей с каждым исходом испытания (i, j) связывается случайная величина Х = i + j - сумма очков на обеих костях. Возможные значения суть 2, 3, 4,..., 11, 12; соответствующие вероятности равны 1/36, 2/36, 3/36,..., 2/36, 1/36.

При одновременном изучении нескольких случайных величин вводится понятие их совместного распределения, которое задаётся указанием возможных значений каждой из них и вероятностей совмещения событий

{X1 = x1}, {X2 = x2}, …, {Xn = xn}, (6)

где xk - какое-либо из возможных значений величины Xk. Случайные величины называются независимыми, если при любом выборе xk события (6) независимы. С помощью совместного распределения случайных величин можно вычислить вероятность любого события, определяемого этими величинами, например события a < X1 + Х2 +... + Xn < b и т.п.

Часто вместо полного задания распределения вероятностей случайной величины предпочитают пользоваться небольшим количеством числовых характеристик. Из них наиболее употребительны математическое ожидание и дисперсия.

В число основных характеристик совместного распределения нескольких случайных величин, наряду с математическими ожиданиями и дисперсиями этих величин, включаются коэффициенты корреляции и т.п. Смысл перечисленных характеристик в значительной степени разъясняется предельными теоремами.

Схема испытаний с конечным числом исходов недостаточна уже для самых простых применений теории вероятностей. Так, при изучении случайного разброса точек попаданий снарядов вокруг центра цели, при изучении случайных ошибок, возникающих при измерении какой-либо величины, и т.д. уже невозможно ограничиться испытаниями с конечным числом исходов. При этом в одних случаях результат испытания может быть выражен числом или системой чисел, в других - результатом испытания может быть функция (например, запись изменения давления в данной точке атмосферы за данный промежуток времени), системы функций и т.п. Следует отметить, что многие данные выше определения и теоремы с незначительными по существу изменениями приложимы и в этих более общих обстоятельствах, хотя способы задания распределений вероятностей изменяются.

Наиболее серьёзное изменение претерпевает определение вероятности, которое в элементарном случае давалось формулой (2). В более общих схемах, о которых идёт речь, события являются объединениями бесконечного числа исходов (или, как говорят, элементарных событий), вероятность каждого из которых может быть равна нулю. В соответствии с этим свойство, выраженное теоремой сложения, не выводится из определения вероятности, а включается в него.

Наиболее распространённая в настоящее время логическая схема построения основ теории вероятностей разработана в 1933 советским математиком А. Н. Колмогоровым. Основные черты этой схемы следующие. При изучении какой-либо реальной задачи - методами теории вероятностей прежде всего выделяется множество U элементов u, называемых элементарными событиями. Всякое событие вполне описывается множеством благоприятствующих ему элементарных событий и потому рассматривается как некое множество элементарных событий. С некоторыми из событий А связываются определённые числа Р (A), называемые их вероятностями и удовлетворяющие условиям

1. 0 £ Р (А) £ 1,

2. P (U) = 1,

3. Если события A1,..., An попарно несовместны и А - их сумма, то

Р (А) = Р (A1) + P (A2) + … + Р (An).

Для создания полноценной математической теории требуют, чтобы условие 3 выполнялось и для бесконечных последовательностей попарно несовместных событий. Свойства не отрицательности и аддитивности есть основные свойства меры множества. Теория вероятностей может, таким образом, с формальной точки зрения рассматриваться как часть меры теории. Основные понятия теории вероятностей получают при таком подходе новое освещение. Случайные величины превращаются в измеримые функции, их математические ожидания - в абстрактные интегралы Лебега и т.п. Однако основные проблемы теории вероятностей и теории меры различны. Основным, специфическим для теории вероятностей является понятие независимости событий, испытаний, случайных величин. Наряду с этим теория вероятностей тщательно изучает и такие объекты, как условные распределения, условные математические ожидания и т.п.

Предельные теоремы.

При формальном изложении теории вероятностей предельные теоремы появляются в виде своего рода надстройки над ее элементарными разделами, в которых все задачи имеют конечный, чисто арифметический характер. Однако познавательная ценность В. т. раскрывается только предельными теоремами. Так, Теорема Бернулли показывает, что при независимых испытаниях частота появления какого-либо события, как правило, мало отклоняется от его вероятности, а Теорема Лапласа указывает вероятности тех или иных отклонений. Аналогично смысл таких характеристик случайной величины, как её математическое ожидание и дисперсия, разъясняется законом больших чисел и центральной предельной теоремой

Пусть

X1, Х2,..., Xn,... (7)

- независимые случайные величины, имеющие одно и то же распределение вероятностей с EXk = а, DXk = s2 и Yn - среднее арифметическое первых n величин из последовательности (7):

Yn = (X1 + X2 + … +Xn)/n.

В соответствии с законом больших чисел, каково бы ни было e > 0, вероятность неравенства |Yn - a| £ e имеет при n ®¥ пределом 1, и, таким образом, Yn как правило, мало отличается от а. Центральная предельная теорема уточняет этот результат, показывая, что отклонения Yn от а приближённо подчинены нормальному распределению со средним 0 и дисперсией s2 / n. Таким образом, для определения вероятностей тех или иных отклонений Yn от а при больших n нет надобности знать во всех деталях распределение величин Xn, достаточно знать лишь их дисперсию.

В 20-х гг. 20 в. было обнаружено, что даже в схеме последовательности одинаково распределённых и независимых случайных величин могут вполне естественным образом возникать предельные распределения, отличные от нормального. Так, например, если X1 время до первого возвращения некоторой случайно меняющейся системы в исходное положение, Х2 - время между первым и вторым возвращениями и т.д., то при очень общих условиях распределение суммы X1 +... + Xn (то есть времени до n-говозвращения) после умножения на n 1/a (а - постоянная, меньшая 1) сходится к некоторому предельному распределению. Таким образом, время до n-го возвращения растет, грубо говоря, как n 1/a, то есть быстрее n (в случае приложимости закона больших чисел оно было бы порядка n).

Информация о работе Роль и значение математики, в научно-теоретической и предметно-практической деятельности специалистов. Теория вероятностей (основные пон