Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Понятие о корреляции. Уравнение регрессии



Корреляция — взаимосвязь двух или нескольких случайных величин. При этом изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции.

· На практике принято различать следующие варианты корреляции:

парная – связь между двумя признаками, один из которых является факторным, а другой – результативным;


Задача корреляционного анализа – количественное определение тесноты связи между результативным и факторными признаками на основе коэффициентов корреляции. Коэффициенты (в многофакторной связи - индексы) корреляции дают возможность определить «полезность» факторных признаков при построении уравнений множественной регрессии.

Коэффициент корреляции – это показатель характера взаимного влияния изменения двух случайных величин. Обозначается буквой R и принимает значение от -1 до +1. Если значение по модулю находится ближе к 1 – это означает наличие сильной связи, а если ближе к 0 – связь слабая или вообще отсутствует. Коэффициент корреляция может быть положительным и отрицательным. Отрицательная корреляция – увеличение одной переменной связано с уменьшением другой переменной. Положительная корреляция – увеличение одной переменной связано с увеличением другой переменной.

Величина коэффициента корреляции Характер связи
до | ±0,3| практически отсутствует
от | ±0,3| до | ±0,5| слабая
от | ±0,5| до | ±0,8| существенная (средняя)
от | ±0,8| до | ±1,0| тесная

Регрессия (лат. regressio - обратное движение, переход от более сложных форм развития к менее сложным) - одно из основных понятий в теории вероятности и математической статистике, выражающее зависимость среднего значения случайной величины от значений другой случайной величины или нескольких случайных величин. Это понятие введено Фрэнсисом Гальтоном в 1886.

y=f(x) - уравнение регрессии - это формула статистической связи между переменными.

Парная регрессия – представляет собой зависимость между двумя переменными x и y, т.е. y=f(x), где y – зависимая переменная, x – независимая переменная.
Парная линейная регрессия – линейная связь между двумя переменными x и y (описывается в виде прямой), уравнение y = a + bx, где b – коэффициент регрессии, a – свободный член уравнения регрессии.
Парная нелинейная регрессия – нелинейная связь между двумя переменными x и y (описывается в виде кривой, для описания используют логарифмические, экспоненциальные или степенные функции), уравнение y = a + b ln(x). Чем ближе точки к графику, тем теснее связь между переменными.





Дата публикования: 2015-02-03; Прочитано: 901 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.006 с)...