Шпаргалка по "Теория вероятностей "

Автор работы: Пользователь скрыл имя, 16 Октября 2013 в 19:22, шпаргалка

Краткое описание

ответы на вопросы к зачету по дисциплине "теории вероятности"

Вложенные файлы: 1 файл

Otvety.doc

— 859.00 Кб (Скачать файл)

 

42. Определение  необходимого объема повторной  и бесповторной выборок при  оценке генеральной средней и  доли.

Для опред.n необход.задать надёжность оценки γ(дов.вер-ть) и точность Δ(пред.ош. выборки).

Для повтор.выб.при  оценке ген. Сред.с надёжностью γ фор-ла для нах.объёма выборки имеет вид:

Где

Для беспов.

При оценке ген.доли для пов.выб.

Беспов.

Если найден объём повтор выб. n то объём соответствующей беспов. по фор-ле:

2ой вариант ответа для проведения выборочного наблюдения весьма важно правильно установить объем выборки n, который в значительной степени определяет необходимые при этом временные, трудовые и стоимостные затраты. Для определения n необходимо задать надежность (доверительную вероятность) оценки γ и точность (предельную ошибку выборки) ∆. 1. Для генеральной средней: а)повторная: n=t22  /∆2 ,б)бесповторная: n΄=N*t22  / t22 +N*∆2. для для генеральной доли: а) повторная: n=t2pq /∆2, б) бесповторная: n΄=N*t2pq  / (t2pq  + N∆2). Если найден объем повторной выборки n, то объем соответствующей бесповторной выборки n΄ можно определить по формуле: n΄= n*N /(n+N). Так как N /(n+N)<1, то при одних и тех же точности и надежности оценок объем бесповторной выборки n΄ всегда меньше объема повторной выборки n.  на практике используется, в основном, бесповторная выборка.

43. Статистическая  гипотеза и статистический критерий. Ошибки 1-го и 2-го рода. Уровень значимости и мощность критерия. Принцип практической уверенности.

статистической гипотезой  называется любое предположение  о виде или параметрах неизвестного закона распределения. Различают простую  и сложную статистические гипотезы. Простая гипотеза в отличие от сложной, полностью определяет теоретическую функцию распределения СВ. проверяемую гипотезу обычно называют нулевой (или основной) и обозначают Н0.  правило, по которому гипотеза Н0 отвергается или принимается, называется статистическим критерием или статистическим тестом. Множество возможных значений статистики критерия разбивается на 2 непересекающихся подмножества: критическую область (от области отклонения гипотезы ) W и область допустимых значений (область принятия гипотезы) не W. Вероятность α допустить ошибку первого рода, то есть отвергнуть гипотезу Н0 , когда она верна называется уровнем значимости или размером критерия. Вероятность (1-β) не допустить ошибку второго рода, то есть отвергнуть гипотезу Н0 , когда она не верна, называется мощностью (или функцией мощности) критерия. Вероятности ошибок первого и второго рода (α и β) однозначно определяются выбором критической области. При увеличении объема выборки возможно одновременное уменьшение вероятности α и β. Принцип практической уверенности: если вероятность события А в данном испытании очень мала, то при однократном выполнении испытания можно быть уверенным в том, что событие А не произойдет и в практической деятельности вести себя так, как будто событие А вообще невозможно. Он подтверждается практически. Например, отправляясь самолетом в другой город мы не рассчитываем на возможность погибнуть в авиакатастрофе, хотя некоторая вероятность такого события все же имеется.


 

44. Построение  теоретического закона распределения по опытным данным. Понятие о критериях согласия.

.одна из важнейших задач мат. статистики – установление теоретического закона распределения СВ, характеризующей изучаемый признак по опытному распределению, представляющему вариационный ряд. Для решения этой задачи необходимо определить вид и параметры закона распределения. Предположение о виде закона распределения может быть выдвинуто исходя из теоретических предпосылок, опыта аналогичных предшествующих исследований и наконец на основании графического изображения эмпирического распределения. Параметры распределения неизвестны поэтому их заменяют наилучшими оценками по выборке. Между эмпирическими и теоретическими распределениями неизбежны расхождения. Тогда возникает вопрос: объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений или  они являются существенными и связаны с тем, что теоретический закон распределения подобран неудачно. Для ответа на этот вопрос и служат критерии согласия.  Пусть необходимо проверить нулевую гипотезу Н0 о том. Что исследуемая случайная величина Х подчиняется определенному закону распределения. Для проверки гипотезы Н0 выбирают некоторую СВ U, характеризующую степень расхождения теоретического и эмпирического распределения, закон распределения которой при достаточно больших n известен и практически не зависит от закона распределения СВ Х. если СВ U приняла значение не меньше, чем фактически наблюдаемая в опыте u (U≥u),  если Р (U≥u) =α мала, то гипотезу Н0 отвергают. Но если Р  (U≥u) =α не мала гипотезу Н0 считают правдоподобной.

45. Критерий  согласия - Пирсона и схема его применения.

Пусть имеется  теор.закон распр. р1,р2..рn Значения х1,х2..хnсгрупированны по m интервалам. Есть выборка объёма n: n1,n2..nm;

Пусть проверяется  гип.о выбранном виде закона распр.с.в.

1.Расчитывается  мера расхождения между наблюденными  частотами и теор. Частотами x2 по фор-ле:

2.Д/данного уровня  значимости α по табл. Х2-распр.нах-ся крит.знач. при числе степеней свободы k=m-r-1

3.Если х2> то гип.Н0 отвергается, а если х2 то нет основания отказываться от теор.закона распр.

2ой вариант  ответа В наиболее часто используемом на практике критерии χ 2 - Пирсона в качестве меры расхождения U ,берется величина χ 2 , равная сумме квадратов отклонений частостей. ωi от гипотетических (предполагаемых) pi , рассчитанных по предполагаемому распределению, взятых с некоторыми весами сi : U= χ 2=∑ сi i-pi)2 . взяв в качестве весов сi =n/pi, можно доказать, что при n →∞ статистика U= χ 2=∑ n/pi i-pi)2 или U= χ 2=∑(n1 - npi)2 / np (*). Для принятия или непринятия гипотезы находим статистику χ - мера расхождения между опытными данными (в вариационном ряду) и теоретическими данными (по графику). Ni – частоты вариационного ряда,  pi – вероятность, найденная в предположении, что СВ подчинена опред. Норм. Закону. Схема применения: 1. определите меру расхождения эмпирических и теоретических частот χ 2 по (*).2. для выбранного уровня значимости α по таблице χ 2 - распределения находят критическое значение χ 2 α ;к при числе степеней свободы к=m-r-1. 3. если наблюдаемое значение χ 2 больше критического, то гипотеза отвергается. Если меньше, то принимается.


 

 

46. Функциональная, статистическая и корреляционная  зависимости. Различия между ними. Основные задачи теории корреляции.

1.Функ.зависимость  означает, что по значению одной  величиныоднозначно определяется  значение другой величины.

2.При статич.зависимости  каждому значению одной величины  соответствует закон распред.другой  величины. Пр:х-кол-во весённых удобрений  у-урожайнойть

х и у связаны,но зависят ещё и от случ.факторов

д/изучения статич.зависимости 

3.Корреляционной зависимостью между двумя переменными величинами наз-ся функциональная связь между значениями одной из них и условными математическими ожиданиями другой

Mx(y)=φ(x) My(x)=ψ(y)

Основные задачи корреляционного анализа – выявление  связи между случайными переменными и оценка тесноты связи.

 

47.Линейная  парная регрессия. Система нормальных уравнений для определения параметров прямых регрессий. Выборочная ковариация. Формулы для расчёта коэффициентов регрессии.

Корреляционная зависимость  может быть представлена в виде: Мх (У)=φ(х) и Му (Х)=ψ(У). эти уравнения называются уравнениями регрессии. Соответственно У по Х и Х по У, функции φ(х) и ψ(У) – функция регрессии, а их графики – линии регрессии. С помощью метода наименьших квадратов запишем систему нормальных уравнений. В большой скобке a ∑xi2 +b∑ xi =∑xi*yi

                                           a∑ xi +b=∑yi

  yx=ax+b – прямая регрессии у на х, ху=су+d – прямая регрессия х на у. коэффициент ковариации μ=¯ху-¯х*¯у – выборочная ковариация - показывает зависимы показатели или независимы. μ=0 – независимы.μ≠0 – зависимы.μ<0 – связь обратная. μ>0 – связь прямая.

by/x= μ / s2x – коэф. регрессии у на х – показывает на сколько единиц в среднем изменится у в натуральном выражении при изменении х на одну единицу.b x/y = μ / s2y - х на у – на сколько единиц в среднем изменится х в натуральном выражении при изменении у на одну единицу. Прямые регрессии: ух -¯У= by/x(х-¯Х) – у на х – как в среднем изменится у при изменении х. ху-¯Х=.b x/y(у-¯У) – х на у –как в среднем изменится х при изменении у.


 

48. Оценка тесноты связи. Коэффициент корреляции(выборочный), его свойства и оценка достоверности.

теснота связи – характеризует  на сколько тесно опытные точки  прилегают к линии регрессии. Если связь линейная, тесноту связи определяет коэф. корреляции – величина r является показателем тесноты линейной связи. r=μ/√S2y*√ S2x, r=±√bx/y*by/x (все под корнем). + - связь прямая.- - обратная. Свойства : 1. |r|≤1 2. чем ближе |r| к 1,тем связь теснее, тем меньше угол между прямыми регрессии. Если |r|>0.9 – достаточно тесная. 0.7<|r| <0.9 – тесная, 0.4<|r|<0.7 – средняя, 0.2<|r|<0.4 – слабая. |r|<0.2 – связь отсутствует. 3. r= ±1 – прямые регрессии совпадают и связь потеряет свою неоднозначность и будет однозначной.  Н – гипотеза: между показателями отсутствует зависимость, коэф. незначим. Для проверки этой гипотезы используют t – критерий Стьюдента. T расчетное =|r|* √n-2 / √1-r2 . t критическое – максимально возможное отклонение (по таблице). α – уровень значимости – вероятность допустить ошибку. γ– не допустить ошибку. t расчетное > t критического – гипотеза отвергается, то есть между показателями существует линейная зависимость и коэф. корреляции значим.

 

 

 

 

 

 

 

 


Информация о работе Шпаргалка по "Теория вероятностей "