Контрольная работа по "Статистике"

Автор работы: Пользователь скрыл имя, 07 Декабря 2012 в 11:53, контрольная работа

Краткое описание

Статистика - самостоятельная общественная наука, имеющая свой предмет и метод исследования. Возникла она из практических потребностей общественной жизни. Уже в древнем мире появилась потребность подсчитывать численность жителей государства, учитывать людей, пригодных к военному делу, определять количество скота, размеры земельных угодий и другого имущества. Информация такого рода была необходима для сбора налогов, ведения войн и т.п. В дальнейшем, по мере развития общественной жизни, круг учитываемых явлений постепенно расширяется.

Вложенные файлы: 1 файл

Статистика как наука.docx

— 173.72 Кб (Скачать файл)

Стохастическую связь  называют корреляционной. Корреляция в широком смысле слова означает связь, соотношение между объективно существующими явлениями и процессами. Регрессия – это частный случай корреляции. В то время, как в корреляционном анализе оценивается сила стохастической связи, в регрессионном анализе исследуется ее форма, т.е. находится уравнение корреляционной связи (уравнение регрессии).

Рассмотрим различные  виды корреляции и регрессии.

По числу переменных различают  регрессию:

1) парную – регрессия  между двумя переменными (прибыль   производительность труда);

2) множественную – регрессия  между зависимой переменной y и несколькими переменными (производительность труда уровень механизации производства, квалификации рабочих).

Относительно формы зависимости  различают:

линейную регрессию; нелинейную регрессию.

В зависимости от характера  регрессии различают:

) прямую регрессию. Она  имеет место, если с увеличением  или уменьшением значений факторных  переменных значения результативной  переменной также увеличиваются  или уменьшаются;

2) обратную регрессию.  В этом случае с увеличением  или уменьшением значений факторного  признака результативный признак  уменьшается или увеличивается.

 

Относительно типа соединений явлений различают:

1) непосредственную регрессию.  В этом случае явления соединены  непосредственно между собой  (прибыль  затраты);

2) косвенную регрессию.  Она имеет место тогда, если  факторная и результативная переменная  не состоят непосредственно в  причинно-следственных отношениях  и факторная переменная через  какую-то другую переменную действует  на результативную переменную (число  пожаров и урожайность зерновых (метеорологические условия));

3) ложная или абсурдная  регрессия. Она возникает при  формальном подходе к исследуемым  явлениям. В результате можно  придти к ложным и даже бессмысленным  зависимостям (число импортируемых  фруктов и рост дорожно-транспортных  происшествий со смертельным  исходом).

 

Аналогична классификация  и корреляции.

 

Изучение взаимозависимостей в экономике имеет большое  значение. Статистика не только отвечает на вопрос о реальном существовании  связи между явлениями, но и дает количественную характеристику этой зависимости. Зная характер зависимости одного явления  от другого, можно объяснить причины  и размеры изменений в явлении, а также планировать необходимые  мероприятия для дальнейшего  его изменения. Чтобы результаты корреляционного анализа нашли  практическое применение и дали желаемый результат, должны выполняться определенные требования:

1) однородность единиц, подвергающихся корреляционному анализ (предприятия выпускают однотипную продукцию, одинаковый характер технологического процесса и тип оборудования);

2) достаточное число наблюдений;

3) включаемые в исследование  факторы должны быть независимы  друг от друга.

 

Для исследования функциональных связей применяются балансовый и  индексный методы. Для изучения стохастических связей используют метод параллельных рядов, метод аналитических группировок, дисперсионный анализ и анализ регрессий  и корреляций.

Простейшим приемом обнаружения  связей является сопоставление двух параллельных рядов. Сущность метода состоит  в том, что сначала показатели, характеризующие факторный признак, ранжируются, а затем параллельно им располагаются соответствующие показатели результативного признака. Сравнение построенных таким образом рядов дает возможность не только подтвердить само наличие связи, но и выявить ее направление.

В случае, когда сравниваемые ряды состоят из большого числа единиц, направления связи для разных единиц может оказаться различным. В этом случае целесообразнее воспользоваться  корреляционными таблицами. В корреляционной таблице факторный признак (х) располагают в строках, а результативный (у) – в столбцах. Числа, расположенные на пересечении строк и столбцов таблицы, показывают частоту повторения данного сочетания х и у. Построение корреляционной таблицы начинают с группировки единиц наблюдения по значениям факторного и результативного признаков. Если частоты в корреляционной таблице расположены по диагонали из левого верхнего угля в правый нижний угол, то можно предположить наличие прямой корреляционной зависимости. Если же частоты расположены по диагонали справа налево, то предполагают наличие обратной связи между признаками.

Другим методом обнаружения  связи является построение групповой  таблицы (метод аналитических группировок). Совокупность значений фактора х разбивают на группы и по каждой группе вычисляют среднее значение результативного признака. Предполагается, что при достаточно большом числе наблюдений в каждой группе влияние прочих случайных факторов при расчете групповой средней будет взаимопогашаться и яснее выявится зависимость результативного признака от факторного и, следовательно, различия в величине средних будут связаны только с различиями в величине данного факторного признака. Если бы связи между факторным и результативным признаком не было, то все групповые средние были бы приблизительно одинаковы по величине.

Простейшим показателем  тесноты связи является коэффициент  корреляции знаков (коэффициент Г.Фехнера):

 

где   N(a)      – число совпадений знаков отклонений индивидуальной величины от средней;

 

N (b) – число несовпадений знаков отклонений индивидуальной величины от средней.

 

Этот коэффициент позволяет  получить представление о направлении  связи и приблизительную характеристику ее тесноты. Для его расчета вычисляют  средние значения результативного  и факторного признаков, а затем  проставляют знаки отклонений для  всех значений взаимосвязанных признаков  Кф = [-1;+1]. Если знаки всех отклонений совпадут, то  и Кф = 1 – прямая связь, если знаки всех отклонений будут разными, то Кф = – 1, что свидетельствует о наличии обратной связи.

Для приблизительной оценки направления и тесноты связи  между признаками, представленными  двумя рядами, можно также использовать коэффициент корреляции рангов. При  определении коэффициента корреляции рангов значения х ранжируются, а затем ранжируются и соответствующие им значения у. В результате получаем ранги, т.е. места, номера единиц совокупности в упорядоченном ряду. При этом в случае наличия одинаковых вариантов каждому из них присваивается среднее арифметическое значение их рангов.

Коэффициент ранговой корреляции Спирмена:

где        d – разность между рангами соответствующих величин двух признаков;

 

n – число единиц в ряду.

Коэффициент корреляции рангов принимает значения [-1; 1]. Если p=1 – тесная прямая связь, p=-1  – тесная обратная связь, p=0 – связь отсутствует. Коэффициент корреляции рангов имеет определенные преимущества перед другими характеристиками направления и тесноты связи: его можно определять при исследовании данных, которые не поддаются нумерации, но ранжируются (оттенки, качество).

Для числовой характеристики тесноты связи могут быть использованы показатели вариации результативного  признака: общая его дисперсия  Q(в квадрате)  и межгрупповая дисперсия (Qв квадрате).

Коэффициент ранговой корреляции Кендэла:

где        q – число рангов, расположенных в обратном порядке.

В практике статистических исследований часто приходится анализировать  альтернативные распределения, когда  совокупность распределяется по каждому  признаку на две группы с противоположными характеристиками. Тесноту связи  в этом случае можно оценить с  помощью коэффициента контингенции:

 

 

21. Типы связей.

Социально-экономические  явления взаимосвязаны и взаимообусловлены, связь между ними носит причинно-следственный характер. При изучении связей между  явлениями причины и условия, характеризующие эти связи, объединяют в понятие фактора. Признаки, которые  выступают причинами связи, называются факторными (x), а признаки, изменяющиеся под воздействием факторных признаков, – результативными (y). Между признаками x и y существуют разные по природе и характеру виды связи:

Функциональная связь  – связь, при которой каждому  значению факторного признака x соответствует одно или несколько строго определенных значений результативного признака y. Такие связи чаще всего наблюдаются в явлениях, описываемых точными и прикладными науками (математикой, физикой, астрономией и т.п.). Статистическая связь – связь, имеющая вероятностный характер, при которой каждому значению факторного признака x соответствует определенное множество значений результативного признака y. В экономике и социальной сфере чаще имеют место именно статистические связи.

 Частным случаем статистической  связи является корреляционная  связь, при которой различным  значениям факторного признака  x соответствуют различные средние значения результативного признака y. Корреляционная связь проявляется не в каждом отдельном случае, а во всей совокупности в целом в форме тенденции.

 

 Виды корреляционной  связи:

 

 По направлению действия:

прямая связь – связь, при которой с увеличением  значения факторного признака x увеличивается значение и результативного признака y, и наоборот, с уменьшением значения факторного признака x уменьшается значение и результативного признака y;

обратная связь – связь, при которой с увеличением  значения факторного признака x уменьшается значение результативного признака y, и наоборот, с уменьшением значения факторного признака x увеличивается значение результативного признака y.

 

 По аналитическому  выражению:

прямолинейная связь –  связь, при которой с увеличением  значения факторного признака x происходит непрерывное увеличение (или уменьшение) значения результативного признака y;

криволинейная связь –  связь, при которой с увеличением  значения факторного признака x увеличение (или уменьшение) значения результативного признака y происходит неравномерно или направление его изменения меняется на обратное.

 

 По количеству факторов, воздействующих на результативный  признак:

однофакторная связь –  связь, при которой один факторный  признак влияет на результативный признак;

многофакторная связь  – связь, при которой два и  более факторных признака комплексно воздействуют на результативный признак.

 

 

22. Методы изучения  взаимосвязей.

Для изучения, измерения  и количественного выражения  взаимосвязей между явлениями статистикой  применяются различные методы, такие  как: метод сопоставления параллельных рядов, балансовый, графический, методы аналитических группировок, дисперсионного и корреляционного анализа.

 Метод параллельных  рядов заключается в том, что  полученные в результате сводки  и обработки материалы располагают  в виде параллельных рядов  и сопоставляют их между собой  для установления характера и  тесноты связи. 

 Метод аналитических  группировок. Сущность метода  аналитических группировок состоит  в том, что единицы статистической  совокупности группируются, как  правило, по факторному признаку  и для каждой группы рассчитывается  средняя или относительная величина  по результативному признаку. Затем  изменения средних или относительных  значений результативного признака  сопоставляются с изменениями  факторного признака для выявления  характера связи между ними. Результаты  аналитической группировки представляют  в виде итоговой статистической  таблицы.

 

Дисперсионный анализ

 Аналитические группировки  при всей своей значимости  не дают количественного выражения  тесноты связи между признаками. Эта задача решается с помощью  дисперсионного и корреляционного  анализа.

 Дисперсионный анализ  – статистический метод, позволяющий  оценить влияние одного или  нескольких факторов на результатирующий признак. Дисперсионный анализ дает прежде всего возможность определить значение систематической и случайной вариаций в общей вариации, а также установить роль интересующего нас фактора в изменении результативного признака. Наиболее простой, часто встречающейся на практике является ситуация, когда можно указать один фактор, влияющий на конечный результат, и этот фактор принимает конечное число значений. Следует определить, существенно ли это влияние. Такая ситуация может быть проанализирована при помощи однофакторного дисперсионного анализа.

 Сущность применяемой  методики в следующем: проводится  комбинированная группировка по  результатирующему и факторному признакам. Она обеспечивает разложение общей дисперсии на межгрупповую (факторную) и остаточную. Межгрупповая дисперсия отражает вариацию признака, которая возникает под воздействием признака-фактора, положенного в основу группировки.

 Остаточная дисперсия  характеризует случайную вариацию  в каждой отдельной группе. Эта  вариация возникает под влиянием  других факторов и не зависит  от факторного признака, положенного  в основу группировки.

 Общая дисперсия характеризует  вариацию признака, обусловленную  влиянием всех факторов.

Для оценки существенности различий между группами по величине какого-либо признака рекомендуется  использовать критерий Фишера (F), фактическое значение которого определяется как отношение межфакторной дисперсии к остаточной по формуле:

 

 

 

Где :– межгрупповая дисперсия;- -остаточная дисперсия.

Фактическое значение критерия Фишера сравнивают с табличным, которое определяется при заданном уровне значимости и числе степеней свободы для межгрупповой и остаточной дисперсии:

Информация о работе Контрольная работа по "Статистике"