Реферат: Анализ рентабельности с помощью программы Олимп
Компонентный анализ.
В зависимости от конкретных задач, решаемых в экономике, каждый из методов факторного анализа, в том числе метод главных компонент, имеют свои достоинства и недостатки. Компонентный анализ считается статистическим методом. Однако, есть другой подход, приводящий к компонентному анализу, но не являющийся статистическим. Этот подход связан с получением наилучшей проекции точек наблюдения в пространстве меньшей размерности. В статистическом подходе задача будет заключаться в выделении линейных комбинаций случайных величин, имеющих максимально возможную дисперсию. Он опирается на ковариационную и корреляционную матрицу этих величин. У этих двух разных подходов есть общий аспект: использование матрицы вторых моментов как исходной для начала анализа.
Методы факторного анализа позволяют решать следующие четыре задачи.
Первая заключается в «сжатии» информации до обозримых размеров, т.е. извлечения из исходной информации наиболее существенной части за счет перехода от системы исходных переменных к системе обобщенных факторов. При этом выявляются неявные, непосредственно не измененные, но объективно существующие закономерности, обусловленные действием как внутренних, так и внешних причин.
Вторая сводится к описанию исследуемого явления значительно меньшим числом m обобщенных факторов (главных компонент) по сравнению с числом исходных признаков. Обобщенные факторы – это новые единицы измерения свойств явления, непосредственно измеряемых признаков.
Третья – связана с выявлением взаимосвязи наблюдаемых признаков с вновь полученными обобщенными факторами.
Четвертая заключается в построении уравнения регрессии на главных компонентах с целью прогнозирования изучаемого явления.
Компонентный анализ может быть также использован при классификации наблюдений (объектов). В экономических исследованиях стремление полнее изучить исследуемое явление приводит к включению в модуль все большего числа исходных переменных, которые зачастую отражают одни и те же свойства объема наблюдения. Это приводит к высокой корреляции между переменными, т.е. к явлению мультиколлинеарности. При этом классические методы регрессионного анализа оказываются малоэффективными. Преимущество уравнения регрессии на главные компоненты в том, что последние не коррелированны между собой.
Главные компоненты являются характеристическими векторами ковариационной матрицы.
Множество главных компонент представляет собой удобную систему координат, а их вклад в общую дисперсию характеризует статистические свойства главных компонент. Из общего числа главных компонент для исследования, как правило, оставляют наиболее весомых, т.е. вносящих максимальный вклад в объясняемую часть общей дисперсии.
Таким образом, несмотря на то, что в методе главных компонент надо для точного воспроизведения корреляции и дисперсии между переменными найти все компоненты, большая доля дисперсии объясняется небольшим числом главных компонент. Кроме того, можно по признакам описать факторы, а по факторам (главным компонентам) описать признаки.
Интерпретация результатов исследования
Для исследования использовались следующие данные:
Исходные данные для анализа
N | Y2 | X4 | X5 | X6 | X7 | X8 | X9 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 |
13.26 10.16 13.72 12.85 10.63 9.12 25.83 23.38 14.68 10.05 13.99 9.68 10.03 9.13 5.37 9.86 12.62 5.02 21.18 25.17 19.1 21.0 6.57 14.19 15.81 5.23 7.99 17.5 17.16 14.54 |
0.23 0.24 0.19 0.17 0.23 0.43 0.31 0.26 0.49 0.36 0.37 0.43 0.35 0.38 0.42 0.30 0.32 0.25 0.31 0.26 0.37 0.29 0.34 0.23 0.17 0.29 0.41 0.41 0.22 0.29 |
0.78 0.75 0.68 0.70 0.62 0.76 0.73 0.71 0.69 0.73 0.68 0.74 0.66 0.72 0.68 0.77 0.78 0.78 0.81 0.79 0.77 0.78 0.72 0.79 0.77 0.80 0.71 0.79 0.76 0.78 |
0.40 0.26 0.40 0.50 0.40 0.19 0.25 0.44 0.17 0.39 0.33 0.25 0.32 0.02 0.06 0.15 0.08 0.20 0.20 0.30 0.24 0.10 0.11 0.47 0.53 0.34 0.20 0.24 0.54 0.40 |
1.37 1.49 1.44 1.42 1.35 1.39 1.16 1.27 1.16 1.25 1.13 1.10 1.15 1.23 1.39 1.38 1.35 1.42 1.37 1.41 1.35 1.48 1.24 1.40 1.45 1.40 1.28 1.33 1.22 1.28 |
1.23 1.04 1.80 0.43 0.88 0.57 1.72 1.70 0.84 0.60 0.82 0.84 0.67 1.04 0.66 0.86 0.79 0.34 1.60 1.46 1.27 1.58 0.68 0.86 1.98 0.33 0.45 0.74 1.03 0.99 |
0.23 0.39 0.43 0.18 0.15 0.34 0.38 0.09 0.14 0.21 0.42 0.05 0.29 0.48 0.41 0.62 0.56 1.76 1.31 0.45 0.50 0.77 1.20 0.21 0.25 0.15 0.66 0.74 0.32 0.89 |
Далее был проведен на исходные данные корреляционный анализ. Были получены следующие результаты.
Матрица
┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐
│ N │ 1 │ 2 │ 3 │ 4 │ 5 │ 6 │ 7 │
│ x4 │ 1.00 │ -0.14 │ -0.65 │ -0.54 │ -0.38 │ 0.01 │ -0.21 │
│ x5 │ -0.14 │ 1.00 │ -0.05 │ 0.39 │ 0.13 │ 0.35 │ 0.24 │
│ x6 │ -0.65 │ -0.05 │ 1.00 │ 0.06 │ 0.20 │ -0.43 │ 0.24 │
│ x7 │ -0.54 │ 0.39 │ 0.06 │ 1.00 │ 0.15 │ 0.20 │ -0.02 │
│ x8 │ -0.38 │ 0.13 │ 0.20 │ 0.15 │ 1.00 │ -0.09 │ 0.76 │
│ x9 │ 0.01 │ 0.35 │ -0.43 │ 0.20 │ -0.09 │ 1.00 │ -0.09 │
│ y2 │ -0.21 │ 0.24 │ 0.24 │ -0.02 │ 0.76 │ -0.09 │ 1.00 │
└─────┴───────┴───────┴───────┴───────┴───────┴───────┴───────┘
t-значения
┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐