←предыдущая следующая→
1 2 3 4 5 6 7 8
статистическим методом. Однако, есть другой подход, приводящий к компонентному анализу, но не являющийся статистическим. Этот подход связан с получением наилучшей проекции точек наблюдения в пространстве меньшей размерности. В статистическом подходе задача будет заключаться в выделении линейных комбинаций случайных величин, имеющих максимально возможную дисперсию. Он опирается на ковариационную и корреляционную матрицу этих величин. У этих двух разных подходов есть общий аспект: использование матрицы вторых моментов как исходной для начала анализа.
Методы факторного анализа позволяют решать следующие четыре задачи.
Первая заключается в «сжатии» информации до обозримых размеров, т.е. извлечения из исходной информации наиболее существенной части за счет перехода от системы исходных переменных к системе обобщенных факторов. При этом выявляются неявные, непосредственно не измененные, но объективно существующие закономерности, обусловленные действием как внутренних, так и внешних причин.
Вторая сводится к описанию исследуемого явления значительно меньшим числом m обобщенных факторов (главных компонент) по сравнению с числом исходных признаков. Обобщенные факторы – это новые единицы измерения свойств явления, непосредственно измеряемых признаков.
Третья – связана с выявлением взаимосвязи наблюдаемых признаков с вновь полученными обобщенными факторами.
Четвертая заключается в построении уравнения регрессии на главных компонентах с целью прогнозирования изучаемого явления.
Компонентный анализ может быть также использован при классификации наблюдений (объектов). В экономических исследованиях стремление полнее изучить исследуемое явление приводит к включению в модуль все большего числа исходных переменных, которые зачастую отражают одни и те же свойства объема наблюдения. Это приводит к высокой корреляции между переменными, т.е. к явлению мультиколлинеарности. При этом классические методы регрессионного анализа оказываются малоэффективными. Преимущество уравнения регрессии на главные компоненты в том, что последние не коррелированны между собой.
Главные компоненты являются характеристическими векторами ковариационной матрицы.
Множество главных компонент представляет собой удобную систему координат, а их вклад в общую дисперсию характеризует статистические свойства главных компонент. Из общего числа главных компонент для исследования, как правило, оставляют наиболее весомых, т.е. вносящих максимальный вклад в объясняемую часть общей дисперсии.
Таким образом, несмотря на то, что в методе главных компонент надо для точного воспроизведения корреляции и дисперсии между переменными найти все компоненты, большая доля дисперсии объясняется небольшим числом главных компонент. Кроме того, можно по признакам описать факторы, а по факторам (главным компонентам) описать признаки.
Интерпретация результатов исследования
Для исследования использовались следующие данные:
Исходные данные для анализа
N Y2 X4 X5 X6 X7 X8 X9
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30 13.26
10.16
13.72
12.85
10.63
9.12
25.83
23.38
14.68
10.05
13.99
9.68
10.03
9.13
5.37
9.86
12.62
5.02
21.18
25.17
19.1
21.0
6.57
14.19
15.81
5.23
7.99
17.5
17.16
14.54 0.23
0.24
0.19
0.17
0.23
0.43
0.31
0.26
0.49
0.36
0.37
0.43
0.35
0.38
0.42
0.30
0.32
0.25
0.31
0.26
0.37
0.29
0.34
0.23
0.17
0.29
0.41
0.41
0.22
0.29 0.78
0.75
0.68
0.70
0.62
0.76
0.73
0.71
0.69
0.73
0.68
0.74
0.66
0.72
0.68
0.77
0.78
0.78
0.81
0.79
0.77
0.78
0.72
0.79
0.77
0.80
0.71
0.79
0.76
0.78 0.40
0.26
0.40
0.50
0.40
0.19
0.25
0.44
0.17
0.39
0.33
0.25
0.32
0.02
0.06
0.15
0.08
0.20
0.20
0.30
0.24
0.10
0.11
0.47
0.53
0.34
0.20
0.24
0.54
0.40 1.37
1.49
1.44
1.42
1.35
1.39
1.16
1.27
1.16
1.25
1.13
1.10
1.15
1.23
1.39
1.38
1.35
1.42
1.37
1.41
1.35
1.48
1.24
1.40
1.45
1.40
1.28
1.33
1.22
1.28 1.23
1.04
1.80
0.43
0.88
0.57
1.72
1.70
0.84
0.60
0.82
0.84
0.67
1.04
0.66
0.86
0.79
0.34
1.60
1.46
1.27
1.58
0.68
0.86
1.98
0.33
0.45
0.74
1.03
0.99 0.23
0.39
0.43
0.18
0.15
0.34
0.38
0.09
0.14
0.21
0.42
0.05
0.29
0.48
0.41
0.62
0.56
1.76
1.31
0.45
0.50
0.77
1.20
0.21
0.25
0.15
0.66
0.74
0.32
0.89
Далее был проведен на исходные данные корреляционный анализ. Были получены следующие результаты.
Матрица
┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐
│ N │ 1 │ 2 │ 3 │ 4 │ 5 │ 6 │ 7 │
│ x4 │ 1.00 │ -0.14 │ -0.65 │ -0.54 │ -0.38 │ 0.01 │ -0.21 │
│ x5 │ -0.14 │ 1.00 │ -0.05 │ 0.39 │ 0.13 │ 0.35 │ 0.24 │
│ x6 │ -0.65 │ -0.05 │ 1.00 │ 0.06 │ 0.20 │ -0.43 │ 0.24 │
│ x7 │ -0.54 │ 0.39 │ 0.06 │ 1.00 │ 0.15 │ 0.20 │ -0.02 │
│ x8 │ -0.38 │ 0.13 │ 0.20 │ 0.15 │ 1.00 │ -0.09 │ 0.76 │
│ x9 │ 0.01 │ 0.35 │ -0.43 │ 0.20 │ -0.09 │ 1.00 │ -0.09 │
│ y2 │ -0.21 │ 0.24 │ 0.24 │ -0.02 │ 0.76 │ -0.09 │ 1.00 │
└─────┴───────┴───────┴───────┴───────┴───────┴───────┴───────┘
t-значения
┌─────┬───────┬───────┬───────┬───────┬
←предыдущая следующая→
1 2 3 4 5 6 7 8
|
|