Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Статистическое изучение взаимосвязи социально – экономических явлений



В наиболее общем виде задача статистики в области изучения взаимосвязей состоит в количественной оценке их наличия и направления, а также характеристике силы и формы влияния одних факторов на другие. Для ее решения применяются две группы методов, одна из которых включает в себя корреляционный анализ, а другая - регрессионный анализ.

Корреляционная связь – это связь, проявляющаяся при большом числе наблюдений в виде определенной зависимости между средним значением результативного признака и признаками-факторами. Другими словами, корреляционную связь условно можно рассматривать как своего рода функциональную связь средней величины одного признака (результативного) со значением другого (или других). При этом, если рассматривается связь средней величины результативного показателя y с одним признаком-фактором x, корреляция называется парной, а если факторных признаков 2 и более (x1, x2, …, xm) – множественной.

По характеру изменений x и y в парной корреляции различают прямую и обратную связь. При прямой связи значения обоих признаков изменяются в одном направлении, т.е. с увеличением (уменьшением) значений x увеличиваются (уменьшаются) и значения y. При обратной связи значения факторного и результативного признаков изменяются в разных направлениях.

Изучение корреляционных связей сводится в основном к решению следующих задач:

1) выявление наличия (отсутствия) корреляционной связи между изучаемыми признаками;

2) измерение тесноты связи между двумя (и более) признаками с помощью специальных коэффициентов (эта часть исследования именуется корреляционным анализом);

3) определение уравнения регрессии – математической модели, в которой среднее значение результативного признака у рассматривается как функция одной или нескольких переменных – факторных признаков (эта часть исследования именуется регрессионным анализом).

Общий термин «корреляционно-регрессионный анализ» подразумевает всестороннее исследование корреляционных связей (т.е. решение всех трех задач).

Для выявления наличия и характера корреляционной связи между двумя признаками в статистике используется ряд методов.

1. Рассмотрение параллельных данных (значений x и y в каждой из n единиц). Единицы наблюдения необходимо расположить по возрастанию значений факторного признака х (как в таблице справа) и затем сравнить с ним (визуально) поведение результативного признака у.

2. Графический метод – это графическое изображение корреляционной зависимости. Для этого, имея n взаимосвязанных пар значений x и y и пользуясь прямоугольной системой координат, каждую такую пару изображают в виде точки на плоскости с координатами x и y. Совокупность полученных точек представляет собой корреляционное поле, а соединяя последовательно нанесенные точки отрезками, получают ломаную линию, именуемую эмпирической линией регрессии.

3. Метод аналитических группировок используется при большом числе наблюдений для выявления корреляционной связи между двумя количественными признаками. Чтобы выявить наличие корреляционной связи между двумя признаками, проводится группировка единиц совокупности по факторному признаку х и для каждой выделенной группы рассчитывается среднее значение результативного признака . Если результативный признак у зависит от факторного х, то в изменении среднего значения будет прослеживаться определенная закономерность.

4. Метод корреляционных таблиц предполагает комбинационное распределение единиц совокупности по двум количественным признакам. Такая таблица строится по типу «шахматной», т.е. в подлежащем (строках) таблицы выделяются группы по факторному признаку х, а в сказуемом (столбцах) – по результативному у (или наоборот), а в клетках таблицы на пересечении х и у показано число случаев совпадения каждого значения х с соответствующим значением у.

На основе аналитических группировок и корреляционных таблиц можно не только выявить наличие зависимости между двумя коррелируемыми показателями, но и измерить тесноту этой связи, в частности, с помощью эмпирического корреляционного отношения.

,    
,    
.    

где m – число групп по факторному признаку х;

k – число групп по результативному признаку у;

– средние значения результативного признака по группам;

– общее среднее значение результативного признака;

– индивидуальные значения результативного признака;

– частота в j -й группе х; – частота в i -й группе у.

5. Коэффициент корреляции знаков (Фехнера) – простейший показатель тесноты связи, основанный на сравнении поведения отклонений индивидуальных значений каждого признака (x и y) от своей средней величины. При этом во внимание принимаются не величины отклонений () и (), а их знаки («+» или «–»). Определив знаки отклонений от средней величины в каждом ряду, рассматривают все пары знаков и подсчитывают число их совпадений (С) и несовпадений (Н). Тогда коэффициент Фехнера рассчитывается как отношение разности чисел пар совпадений и несовпадений знаков к их сумме, т.е. к общему числу наблюдаемых единиц:

.

Очевидно, что если знаки всех отклонений по каждому признаку совпадут, то КФ= 1, что характеризует наличие прямой связи. Если все знаки не совпадут, то КФ=– 1 (обратная связь). Если же åС=åН, то КФ= 0. Итак, как и любой показатель тесноты связи, коэффициент Фехнера может принимать значения от 0 до 1. Однако, если КФ= 1, то это ни в коей мере нельзя воспринимать как свидетельство функциональной зависимости между х и у.

6. Линейный коэффициент корреляции – основан на предположении, что при полной независимости признаков x и у отклонения значений факторного признака от средней () носят случайный характер и должны случайно сочетаться с различными отклонениями (). При наличии значительного перевеса совпадений или несовпадений таких отклонений делается предположение о наличии связи между x и y.

В отличие от КФ в линейном коэффициенте корреляции учитываются не только знаки отклонений от средних величин, но и значения самих отклонений, выраженные для сопоставимости в единицах среднего квадратического отклонения t:

и .

Линейный коэффициент корреляции r представляет собой среднюю величину из произведений нормированных отклонений для x и у:

, или .

Линейный коэффициент корреляции может принимать значения от –1 до +1, причем знак определяется в ходе решения. Например, если , то r по формуле будет положительным, что характеризует прямую зависимость между х и у, в противном случае (r< 0) – обратную связь. Если , то r= 0, что означает отсутствие линейной зависимости между х и у, а при r= 1 – функциональная зависимость между х и у. Следовательно, всякое промежуточное значение r от 0 до 1 характеризует степень приближения корреляционной связи между х и у к функциональной. Существует эмпирическое правило (шкала Чэддока) для оценки тесноты связи, представленное в таблице 3.

Таблица 3. Шкала Чэддока

| r | Теснота связи
менее 0,1 отсутствует линейная связь
0,1 ÷ 0,3 слабая
0,3 ÷ 0,5 умеренная
0,5 ÷ 0,7 заметная
более 0,7 сильная (тесная)

Таким образом, коэффициент корреляции при линейной зависимости служит как мерой тесноты связи, так и показателем, характеризующим степень приближения корреляционной зависимости между х и у к линейной. Поэтому близость значения r к 0 в одних случаях может означать отсутствие связи между х и у, а в других свидетельствовать о том, что зависимость не линейная.

7. Подбор уравнения регрессии представляет собой математическое описание изменения взаимно коррелируемых величин по эмпирическим (фактическим) данным. Уравнение регрессии должно определить, каким будет среднее значение результативного признака у при том или ином значении факторного признака х, если остальные факторы, влияющие на у и не связанные с х, не учитывать, т.е. абстрагироваться от них. Другими словами, уравнение регрессии можно рассматривать как вероятностную гипотетическую функциональную связь величины результативного признака у со значениями факторного признака х.

Уравнение регрессии можно также назвать теоретической линией регрессии. Рассчитанные по уравнению регрессии значения результативного признака называются теоретическими. Они обычно обозначаются или (читается: «игрек, выравненный по х») и рассматриваются как функция от х, т.е. = f(x).

Найти в каждом конкретном случае тип функции, с помощью которой можно наиболее адекватно отразить ту или иную зависимость между признаками х и у, — одна из основных задач регрессионного анализа. Выбор теоретической линии регрессии часто обусловлен формой эмпирической линии регрессии; теоретическая линия как бы сглаживает изломы эмпирической линии регрессии.

8. Коэффициент эластичности показывает, на сколько процентов изменяется в среднем результативный признак y при изменении факторного признака x на 1%. Он рассчитывается на основе уравнения регрессии:

, где – первая производная уравнения регрессии y по x.

Коэффициент эластичности – величина переменная, т.е. изменяется с изменением значений фактора x. Так, для линейной зависимости :

.

9. Теоретическое корреляционное отношение как универсальный показатель тесноты связи. Измерить тесноту связи между коррелируемыми величинами – значит определить, насколько вариация результативного признака обусловлена вариацией факторного (факторных) признака. Ранее были рассмотрены показатели, с помощью которых можно выявить наличие корреляционной связи между двумя признаками x и y и измерить тесноту этой связи. Наряду с ними существует универсальный показатель – корреляционное отношение (или коэффициент корреляции по Пирсону), применимое ко всем случаям корреляционной зависимости независимо от формы этой связи. Следует различать эмпирическое и теоретическое корреляционное отношение. Эмпирическое корреляционное отношение рассчитывается на основе правила сложения дисперсий как корень квадратный из отношения межгрупповой дисперсии к общей дисперсии, т.е.

.

Сравнивая вторую дисперсию с первой, получим теоретический коэффициент детерминации:

,

который показывает, какую долю в общей дисперсии результативного признака занимает дисперсия, выражающая влияние вариации фактора x на вариацию y. Извлекая корень квадратный из коэффициента детерминации, получаем теоретическое корреляционное отношение

.

Оно может находиться в пределах от 0 до 1, чем ближе его значение к 1, тем теснее связь между вариацией y и x. Для оценки тесноты связи обычно применяется шкала Чэддока (таблица 3). Корреляционное отношение применимо как для парной, так и для множественной корреляции независимо от формы связи. В этом смысле его можно назвать универсальным показателем тесноты связи. При линейной зависимости .

9. Коэффициенты корреляции рангов – это менее точные, но более простые по расчету непараметрические показатели для измерения тесноты связи между двумя коррелируемыми признаками. К ним относятся коэффициенты Спирмэна (ρ) и Кендэла (τ), основанные на корреляции не самих значений коррелируемых признаков, а их рангов – порядковых номеров, присваиваемых каждому индивидуальному значению х и у (отдельно) в ранжированном ряду. Оба признака необходимо ранжировать (нумеровать) в одном и том же порядке: от меньших значений к большим и наоборот. Если встречается несколько значений х (или у), то каждому из них присваивается ранг, равный частному от деления суммы рангов (мест в ряду), приходящихся на эти значения, на число равных значений. Ранги признаков х и у обозначают символами Rx и Ry. Если у каждой пары х и у ранги совпадают, это характеризует максимально тесную связь. Если же наблюдается полная противоположность рангов, т.е. в одном ряду ранги возрастают от 1 до n, а в другом – убывают от n до 1, это максимально возможная обратная связь. Подходы для оценки тесноты связи у Спирмэна и Кендэла несколько различаются. Для расчета коэффициента Спирмэна значения признаков х и у нумеруют (отдельно) в порядке возрастания от 1 до n, т.е. им присваивают определенный ранг (Rx и Ry) – порядковый номер в ранжированном ряду. Затем для каждой пары рангов находят их разность (обозначается как d = RxRy), и квадраты этой разности суммируют.

,

где d – разность рангов х и у;

n – число наблюдаемых пар значений х и у.

Коэффициент ρ может принимать значения от 0 до ±1.

Коэффициент корреляции рангов Кендэла τ строится несколько по-другому, хотя его расчет также начинается с ранжирования значений признаков х и у. Ранги х (Rx) располагают строго в порядке возрастания и параллельно записывают соответствующее каждому Rx значение Ry. Поскольку Rx записаны строго по возрастанию, то ставится задача определить меру соответствия последовательности Ry «правильному» следованию Rx. При этом для каждого Ry последовательно определяют число следующих за ним рангов, превышающих его значение, и число рангов, меньших по значению. Первые («правильное» следование) учитываются как баллы со знаком «+», и их сумма обозначается буквой Р. Вторые («неправильное» следование) учитываются как баллы со знаком «–», и их сумма обозначается буквой Q. Очевидно, что максимальное значение Р достигается в том случае, если ранги y (Ry) совпадают с рангами х (Rx) и в каждом ряду представляют ряд натуральных чисел от 1 до п. Тогда после первой пары значений Rx = 1 и Ry = 1 число превышения данных значений рангов составит (n – 1), после второй пары, где Rx = 2 и Ry = 2, соответственно (п – 2) и т.д. Таким образом, если ранги х и у совпадают и число пар рангов равно n, то

.

КРАТКИЕ МЕТОДИЧЕСКИЕ УКАЗАНИЯ ДЛЯ РЕШЕНИЯ ЗАДАЧ ПО ТЕМАМ «СОЦИАЛЬНО-ЭКОНОМИЧЕСКОЙ СТАТИСТИКИ», «СИСТЕМЫ НАЦИОНАЛЬНЫХ СЧЕТОВ».





Дата публикования: 2015-01-09; Прочитано: 515 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.01 с)...