RSS    

   Реферат: Анализ рентабельности с помощью программы Олимп

Компонентный анализ.

В зависимости от конкретных задач, решаемых в экономике, каждый из методов факторного анализа, в том числе метод главных компонент, имеют свои достоинства и недостатки. Компонентный анализ считается статистическим методом. Однако, есть другой подход, приводящий к компонентному анализу, но не являющийся статистическим. Этот подход связан с получением наилучшей проекции точек наблюдения в пространстве меньшей размерности. В статистическом подходе задача будет заключаться в выделении линейных комбинаций случайных величин, имеющих максимально возможную дисперсию. Он опирается на ковариационную и корреляционную матрицу этих величин. У этих двух разных подходов есть общий аспект: использование матрицы вторых моментов как исходной для начала анализа.

Методы факторного анализа позволяют решать следующие четыре задачи.

Первая заключается в «сжатии» информации до обозримых размеров, т.е. извлечения из исходной информации наиболее существенной части за счет перехода от системы исходных переменных к системе обобщенных факторов. При этом выявляются неявные, непосредственно не измененные, но объективно существующие закономерности, обусловленные действием как внутренних, так и внешних причин.

Вторая сводится к описанию исследуемого явления значительно меньшим числом m обобщенных факторов (главных компонент) по сравнению с числом исходных признаков. Обобщенные факторы – это новые единицы измерения свойств явления, непосредственно измеряемых признаков.

Третья – связана с выявлением взаимосвязи наблюдаемых признаков с вновь полученными обобщенными факторами.

Четвертая заключается в построении уравнения регрессии на главных компонентах с целью прогнозирования изучаемого явления.

Компонентный анализ может быть также использован при классификации наблюдений (объектов). В экономических исследованиях стремление полнее изучить исследуемое явление приводит к включению в модуль все большего числа исходных переменных, которые зачастую отражают одни и те же свойства объема наблюдения. Это приводит к высокой корреляции между переменными, т.е. к явлению мультиколлинеарности. При этом классические методы регрессионного анализа оказываются малоэффективными. Преимущество уравнения регрессии на главные компоненты в том, что последние не коррелированны между собой.

Главные компоненты являются характеристическими векторами ковариационной матрицы.

Множество главных компонент представляет собой удобную систему координат, а их вклад в общую дисперсию характеризует статистические свойства главных компонент. Из общего числа главных компонент для исследования, как правило, оставляют наиболее весомых, т.е. вносящих максимальный вклад в объясняемую часть общей дисперсии.

Таким образом, несмотря на то, что в методе главных компонент надо для точного воспроизведения корреляции и дисперсии между переменными найти все компоненты, большая доля дисперсии объясняется небольшим числом главных компонент. Кроме того, можно по признакам описать факторы, а по факторам (главным компонентам) описать признаки.


Интерпретация результатов исследования

Для исследования использовались следующие данные:

Исходные данные для анализа

N Y2 X4 X5 X6 X7 X8 X9

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

13.26

10.16

13.72

12.85

10.63

9.12

25.83

23.38

14.68

10.05

13.99

9.68

10.03

9.13

5.37

9.86

12.62

5.02

21.18

25.17

19.1

21.0

6.57

14.19

15.81

5.23

7.99

17.5

17.16

14.54

0.23

0.24

0.19

0.17

0.23

0.43

0.31

0.26

0.49

0.36

0.37

0.43

0.35

0.38

0.42

0.30

0.32

0.25

0.31

0.26

0.37

0.29

0.34

0.23

0.17

0.29

0.41

0.41

0.22

0.29

0.78

0.75

0.68

0.70

0.62

0.76

0.73

0.71

0.69

0.73

0.68

0.74

0.66

0.72

0.68

0.77

0.78

0.78

0.81

0.79

0.77

0.78

0.72

0.79

0.77

0.80

0.71

0.79

0.76

0.78

0.40

0.26

0.40

0.50

0.40

0.19

0.25

0.44

0.17

0.39

0.33

0.25

0.32

0.02

0.06

0.15

0.08

0.20

0.20

0.30

0.24

0.10

0.11

0.47

0.53

0.34

0.20

0.24

0.54

0.40

1.37

1.49

1.44

1.42

1.35

1.39

1.16

1.27

1.16

1.25

1.13

1.10

1.15

1.23

1.39

1.38

1.35

1.42

1.37

1.41

1.35

1.48

1.24

1.40

1.45

1.40

1.28

1.33

1.22

1.28

1.23

1.04

1.80

0.43

0.88

0.57

1.72

1.70

0.84

0.60

0.82

0.84

0.67

1.04

0.66

0.86

0.79

0.34

1.60

1.46

1.27

1.58

0.68

0.86

1.98

0.33

0.45

0.74

1.03

0.99

0.23

0.39

0.43

0.18

0.15

0.34

0.38

0.09

0.14

0.21

0.42

0.05

0.29

0.48

0.41

0.62

0.56

1.76

1.31

0.45

0.50

0.77

1.20

0.21

0.25

0.15

0.66

0.74

0.32

0.89

Далее был проведен на исходные данные корреляционный анализ. Были получены следующие результаты.

Матрица

┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐

│   N │     1 │     2 │     3 │     4 │     5 │     6 │     7 │

│ x4  │  1.00 │ -0.14 │ -0.65 │ -0.54 │ -0.38 │  0.01 │ -0.21 │

│ x5  │ -0.14 │  1.00 │ -0.05 │  0.39 │  0.13 │  0.35 │  0.24 │

│ x6  │ -0.65 │ -0.05 │  1.00 │  0.06 │  0.20 │ -0.43 │  0.24 │

│ x7  │ -0.54 │  0.39 │  0.06 │  1.00 │  0.15 │  0.20 │ -0.02 │

│ x8  │ -0.38 │  0.13 │  0.20 │  0.15 │  1.00 │ -0.09 │  0.76 │

│ x9  │  0.01 │  0.35 │ -0.43 │  0.20 │ -0.09 │  1.00 │ -0.09 │

│ y2  │ -0.21 │  0.24 │  0.24 │ -0.02 │  0.76 │ -0.09 │  1.00 │

└─────┴───────┴───────┴───────┴───────┴───────┴───────┴───────┘

t-значения

┌─────┬───────┬───────┬───────┬───────┬───────┬───────┬───────┐

Страницы: 1, 2, 3, 4, 5, 6, 7


Новости


Быстрый поиск

Группа вКонтакте: новости

Пока нет

Новости в Twitter и Facebook

                   

Новости

© 2010.