Автор работы: Пользователь скрыл имя, 14 Декабря 2013 в 14:54, лекция
Главными целями факторного анализа являются: (1) сокращение числа переменных (редукция данных) и (2) определение структуры взаимосвязей между переменными, т.е. классификация переменных. Поэтому факторный анализ используется или как метод сокращения данных или как метод классификации. Ниже описываются принципы факторного анализа и способы его применения для достижения этих двух целей. Предполагается, что вы знакомы с логикой статистических выводов в объеме, содержащемся в разделе Элементарные понятия статистики. Предполагается также, что вы знакомы с понятиями дисперсии и корреляции (см. например, раздел Основные статистики и таблицы).
Факторный анализ как метод классификации
Возвратимся к интерпретации результатов факторного анализа. Термин факторный анализ теперь будет включать как анализ главных компонент, так и анализ главных факторов. Предполагается, что вы находитесь в той точке анализа, когда в целом знаете, сколько факторов следует выделить. Вы можете захотеть узнать значимость факторов, то есть, можно ли интерпретировать их разумным образом и как это сделать. Чтобы проиллюстрировать, каким образом это может быть сделано, производятся действия "в обратном порядке", то есть, начинают с некоторой осмысленной структуры, а затем смотрят, как она отражается на результатах. Вернемся к примеру об удовлетворенности; ниже приведена корреляционная матрица для переменных, относящихся к удовлетворенности на работе и дома.
STATISTICA |
Корреляции
(factor.sta) | |||||
Переменная |
РАБОТА_1 |
РАБОТА_2 |
РАБОТА_3 |
ДОМ_1 |
ДОМ_2 |
ДОМ_3 |
РАБОТА_1 |
1.00 |
.65 |
.65 |
.14 |
.15 |
.14 |
Переменные, относящиеся к
Факторные нагрузки. Теперь проведем анализ главных компонент и рассмотрим решение с двумя факторами. Для этого рассмотрим корреляции между переменными и двумя факторами (или "новыми" переменными), как они были выделены по умолчанию; эти корреляции называются факторными нагрузками.
STATISTICA |
Факторные
нагрузки (Нет вращения) | |
Переменная |
Фактор 1 |
Фактор 2 |
РАБОТА_1 |
.654384 |
.564143 |
Общая дисперсия |
2.891313 |
1.791000 |
По-видимому, первый фактор более коррелирует
с переменными, чем второй. Это следовало
ожидать, потому что, как было сказано
выше, факторы выделяются последовательно
и содержат все меньше и меньше общей дисперсии.
Вращение факторной
структуры. Вы можете изобразить факторные
нагрузки в виде диаграммы
рассеяния. На этой диаграмме каждая переменная
представлена точкой. Можно повернуть
оси в любом направлении без изменения относительного полож
Методы вращения. Существуют различные методы
вращения факторов. Целью этих методов
является получение понятной (интерпретируемой)
матрицы нагрузок, то есть факторов, которые
ясно отмечены высокими нагрузками для
некоторых переменных и низкими - для других.
Эту общую модель иногда называют простой структурой (более
формальное определение можно найти в
стандартных учебниках). Типичными методами
вращения являются стратегии варимакс, квартимакс
Идея вращения по методу варимакс была описана выше (см. Выделение главных компонент), и этот метод можно применить успешно и к рассматриваемой задаче. Как и ранее, вы хотите найти вращение, максимизирующее дисперсию по новым осям; другими словами, вы хотите получить матрицу нагрузок на каждый фактор таким образом, чтобы они отличались максимально возможным образом и имелась возможность их простой интерпретации. Ниже приведена таблица нагрузок на повернутые факторы.
STATISTICA |
Факторные
нагрузки (Варимакс нормализ.) | |
Переменная |
Фактор 1 |
Фактор 2 |
РАБОТА_1 |
.862443 |
.051643 |
Общая дисперсия |
2.356684 |
2.325629 |
Интерпретация факторной
структуры. Теперь картина становится
более ясной. Как и ожидалось, первый фактор
отмечен высокими нагрузками на переменные,
связанные с удовлетворенностью на работе,
а второй фактор - с удовлетворенностью
домом. Из этого вы должны заключить, что
удовлетворенность, измеренная вашим
вопросником, составлена из двух частей:
удовлетворенность домом и работой, следовательно,
вы произвели классификацию переме
Рассмотрим следующий пример, здесь к предыдущему примеру добавились четыре новых переменных Хобби.
На этом графике факторных нагрузок 10 переменных были сведены к трем факторам - фактор удовлетворенности работой (work), фактор удовлетворенности домом (home), и фактор удовлетворенности хобби (hobby/misc). Заметим, что факторные нагрузки для каждого фактора имеют сильно различающиеся значения для остальных двух факторов, но большие значения именно для этого фактора. Например, факторные нагрузки для переменных, относящихся к хобби (выделены зеленым цветом) имеют и большие, и малые значения для "дома" и "работы", но все четыре переменные имеют большие факторные нагрузки для фактора "хобби".
Косоугольные факторы. Некоторые авторы (например, Харман (Harman, 1976), Дженнрих и Сэмпсон (Jennrich, Sampson, 1966); Кларксон и Дженнрих (Clarkson, Jennrich, 1988)) обсуждали довольно подробно концепцию косоугольных (не ортогональных) факторов, для того чтобы достичь более простой интерпретации решений. В частности, были развиты вычислительные стратегии, как для вращения факторов, так и для лучшего представления "кластеров" переменных без отказа от ортогональности (т.е. независимости) факторов. Однако косоугольные факторы, получаемые с помощью этих процедур, трудно интерпретировать. Возвратимся к примеру, обсуждавшемуся выше, и предположим, что вы включили в вопросник четыре пункта, измеряющих другие типы удовлетворенности (Хобби). Предположим, что ответы людей на эти пункты были одинаково связаны как с удовлетворенностью домом (Фактор 1), так и работой (Фактор 2). Косоугольное вращение должно дать, очевидно, два коррелирующих фактора с меньшей, чем ранее, выразительностью, то есть с большими перекрестными нагрузками.
Иерархический факторный анализ. Вместо вычисления нагрузок косоугольных факторов, для которых часто трудно дать хорошую интерпретацию, вы можете использовать стратегию, впервые предложенную Томсоном (Thompson, 1951) и Шмидтом и Лейманом (Schmidt, Leiman, 1957), которая было подробно развита и популяризирована Верри (Wherry, 1959, 1975, 1984). В соответствии с этой стратегией, вначале определяются кластеры и происходит вращение осей в пределах кластеров, а затем вычисляются корреляции между найденными (косоугольными) факторами. Полученная корреляционная матрица для косоугольных факторов затем подвергается дальнейшему анализу для того, чтобы выделить множество ортогональных факторов, разделяющих изменчивость в переменных на ту, что относятся к распределенной или общей дисперсии (вторичные факторы), и на частные дисперсии, относящиеся к кластерам или схожим переменным (пунктам вопросника) в анализе (первичные факторы). Применительно к рассматриваемому примеру такой иерархический анализ может дать следующие факторные нагрузки:
STATISTICA |
Вторичные
и первичные факторные | ||
Фактор |
Вторич. 1 |
Первич. 1 |
Первич. 2 |
РАБОТА_1 |
.483178 |
.649499 |
.187074 |
Внимательное изучение позволяет сделать следующие заключения:
Верри (Wherry, 1984) обсудил подробно примеры такого иерархического анализа и объяснил, каким образом могут быть получены значимые и интерпретируемые вторичные факторы.
Подтверждающий факторный анализ. Последние 15 лет так называемые методы подтверждения имели все большую популярность (например, см. Joreskog, Sorbom, 1979). Можно априоривыбрать набор факторных нагрузок для некоторого числа ортогональных или косоугольных факторов, а затем проверить, может ли быть наблюдаемая корреляционная матрица воспроизведена при этом выборе. Подтверждающий факторный анализ может быть проведен с помощью Моделирования структурными уравнениями (SEPATH).
Другие результаты и статистики
Значения факторов. Вы можете оценить действительные значения факторов для отдельных наблюдений. Эти значения используются, когда желают провести дальнейший анализ факторов.
Воспроизведенные
и остаточные корреляции. Дополнительным способом проверки
числа выделенных факторов является вычисление
корреляционной матрицы, которая близка
исходной, если факторы выделены правильно.
Эта матрица называется воспроизведенной ко
Плохо обусловленные матрицы. Если имеются избыточные переменные, то нельзя вычислить обратную матрицу. Например, если переменная является суммой двух других переменных, отобранных для этого анализа, то корреляционная матрица для такого набора переменных не может быть обращена, и факторный анализ принципиально не может быть выполнен. На практике это происходит, когда вы пытаетесь применить факторный анализ к множеству сильно коррелированных (зависимых) переменных, что иногда случается, например, в исследованиях вопросников. Тогда вы можете искусственно понизить все корреляции в матрице путем добавления малой константы к диагональным элементам матрицы, и затем стандартизировать ее. Эта процедура обычно приводит к матрице, которая может быть обращена, и поэтому к ней применим факторный анализ; более того, эта процедура не влияет на набор факторов. Однако оценки оказываются менее точными.
STATISTICA |
Вторичные
и первичные факторные | ||
Фактор |
Вторич. 1 |
Первич. 1 |
Первич. 2 |
РАБОТА_1 |
.483178 |
.649499 |
.187074 |
Внимательное изучение позволяет сделать следующие заключения: