Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
В модели парной регрессии результативной переменной у от факторной переменной х неизвестными являются коэффициенты β0 и β1. Существуют определенные методы оценки неизвестных коэффициентов модели парной регрессии.
Метод наименьших квадратов (МНК), при котором рассчитывается сумма квадратов отклонений наблюдаемых значений результативной переменной у от теоретических значений , рассчитанных на основании функции регрессии f(х). Для определения оптимальных значений неизвестных коэффициентов β0 ...βn функционал F минимизируется по данным параметрам:
т.е. рассчитываются такие коэффициенты β0..βn, при которых сумма квадратов отклонений наблюдаемых значений результативной переменной у от теоретических значений была бы минимальной.
Достоинства МНК - сведение всех вычислительных процедур к простому вычислению неизвестных коэффициентов; доступность математических выводов.
Недостаток МНК - чувствительность оценок к резким выбросам, встречающимся в исходных данных. МНК является наиболее распространенным методом оценки неизвестных коэффициентов модели парной регрессии.
Классический метод наименьших квадратов для модели парной регрессии.
Предположим, что между результативной переменной х и факторной переменной у существует линейная связь, которая описывается равенством:
yi = b0 + b1 xi. (1)
Суть метода наименьших квадратов состоит в том, что нужно рассчитать такие значения коэффициентов b0 и b1, которые минимизировали бы сумму квадратов отклонений наблюдаемых значений результативной переменной у от теоретических значений , т.е. доставляли минимум функции (1):
(2)
Значения результативной (у) и факторной (х) переменных известны из наблюдений. Следовательно, при минимизации функции (1) неизвестными являются только значения коэффициентов модели регрессии b0 и b1.
Для определения минимума функции двух переменных рассчитываются частные производные этой функции по каждому из оцениваемых параметров и приравниваются к нулю.
Полученная система уравнений называется стационарной системой уравнений для функции (1).
В результате преобразование стационарной системы уравнений получим систему двух нормальных линейных уравнений:
Решением системы нормальных уравнений являются оценки неизвестных коэффициентов модели парной регрессии:
где ` у - среднее значение результативной переменной; ` х - среднее значение факторной переменной; - среднее арифметическое значение произведения результативной и факторной переменных; S2x - дисперсия факторной переменной; соv(х, у) - ковариация между результативной и факторной переменными.
Модель парной регрессии может быть записана в следующем виде:
где у - значение результативной переменной; х - значение факторной переменной; ` у - среднее значение результативной переменной, рассчитанное по выборочным данным.
Среднее арифметическое значение переменной:
уi (i = 1, 2,... n) - значение результативной переменной;
n - объём выборочной совокупности; ` х - среднее значение факторной переменной, рассчитанное по выборочным данным.
С арифметическое значение переменной:
byx= b1 - выборочный коэффициент регрессии у по х:
.
где Sy - выборочное среднеквадратическое отклонение результативной переменной y:
;
Sx - выборочное среднеквадратическое отклонение факторной переменной х:
.
Выборочный коэффициент регрессии byx показывает, насколько в среднем изменится результативная переменная у при изменении факторной переменной х на единицу своего измерения.
ryx - выборочный парный коэффициент корреляции:
.
Выборочный парный коэффициент корреляции характеризует тесноту связи между изучаемыми переменными.
Можно выделить несколько особенностей парного корреляционного коэффициента:
1) коэффициент изменяется в пределах [-1; +1]. Если ryx Î [0; +1], то связь между переменными прямая. Если ryx Î [-1;0], то связь между переменными обратная. Если ryx = 0, то линейная связь между переменными отсутствует. Если ryx = 1 или ryx = -1, то связь между изучаемыми переменными функциональная, т.е. характеризуется полным соответствием между х и у.
При таком значении парного коэффициента корреляции регрессионный анализ между изучаемыми переменными не проводится;
2) `` ху - среднее арифметическое значение произведения результативной и факторной переменных.
Несмещённая оценка дисперсии случайной ошибки линейной модели парной регрессии рассчитывается по формуле:
где n - объём выборочной совокупности; ei - остатки модели регрессии:
ei = yi - = yi – b0 – b1 xi.
Несмещённая оценка дисперсии случайной ошибки для линейной модели множественной регрессии рассчитывается по формуле:
где к - число оцениваемых коэффициентов модели регрессии.
Оценка дисперсии случайной ошибки модели регрессии распределена по c2 - закону распределения с (n - к - 1) степенями свободы.
Предположим, что МНК-оценка любого коэффициента модели регрессии состоит из:
1) истинного значение коэффициента, т.е. константы;
2) случайной ошибки соv(х,e), вызывающей вариацию коэффициента регрессии.
Свойства ковариации:
1) соv (х, А) = 0, где А = соnst, т.е. ковариация между переменной х и какой-либо константой А равна нулю;
2) соv (x, x) = S 2(x) т.е. ковариация переменной х с самой собой равна дисперсии этой переменной.
Состоятельность и несмещённость МНК-оценок.
Для того чтобы МНК-оценку принять за оценку параметра необходимо и достаточно, чтобы оценка удовлетворяла трём статистическим свойствам: несмещённости, состоятельности и эффективности.
1. называется несмещённой оценкой для параметра , если её выборочное математическое ожидание равно оцениваемому параметру генеральной совокупности, т.е. Е () = . При этом:
Е () - = φi.
где φi - смещение оценки.
2. является состоятельной оценкой для параметра , если она удовлетворяет закону больших чисел. Суть закона больших чисел состоит в том, что с увеличением выборки значение оценки стремится к значению параметра генеральной совокупности P(| - | < θ)→1 при n→¥.
3. Эффективность МНК-оценок доказывается с помощью теоремы Гаусса-Маркова.
Нормальная или классическая линейная модель парной регрессии строится на основании следующих условий:
1) переменная xi - неслучайная (детерминированная) величина, не зависящая от распределения случайной ошибки модели регрессии ei;
2) Е (ei) = 0, где i = 1, 2, …, n, т.е. математическое ожидание случайной ошибки модели регрессии Е(ei) равно нулю во всех наблюдениях;
3) D (ei) = Е (ei2) = σ2 = const, т.е. дисперсия случайной ошибки модели регрессии D (ei) постоянна для всех наблюдений;
4) соv (ei, ej) = Е(eiej) = 0, где i ≠ j, т/е. случайные ошибки модели регрессии не коррелируют между собой. Это условие не выполняется для временных рядов;
5) ei ~ N(0, σ2), т.е. случайная ошибка модели регрессии - случайная величина, подчиняющаяся нормальному закону распределения с нулевым математическим ожиданием и дисперсией σ2.
Теорема Гаусса-Маркова. При выполнении перечисленных пяти условий оценки неизвестных коэффициентов модели регрессии, полученные классическим методом наименьших квадратов, имеют наименьшую дисперсию в классе всех линейных несмещённых оценок.
Можно сделать вывод, что оценки коэффициентов модели регрессии, полученные классическим методом наименьших квадратов, являются оптимальными оценками, т.е. несмещенными, состоятельными и эффективными.
Дата публикования: 2014-11-02; Прочитано: 4505 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!