Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
1. Yt=a+bXt+et, t=1,2,….,n – спецификация модели.
2. Xt – детерминированная величина; вектор (X1,X2,…,Xn)`не коллинеарен вектору s = (1,….,1)`.
3а. E et = 0, E(et2) = V (et) = s2 – не зависит от t.
3б. E (et es) = 0. При t ¹ s – некоррелированность ошибок для разных наблюдений.
Часто добавляется условие:
3в. et ~ N (0,s2), т.е. et – нормально распределенная случайная величина со средним 0 и дисперсией s2. В этом случае модель называется нормальной линейной регрессионной.
Обсудим гипотезы, лежащие в основе линейной регрессионной модели.
1.Спецификация модели отражает наше представление о механизме зависимости Yt от Xt и сам выбор объясняющей переменной Xt.
Условия 3а, 3б в векторной форме могут быть записаны следующим образом:
E e = 0, V(e) = s2In,
где e = (e1, ……., en)`, In – nxn единичная матрица, nxn - матрица ковариаций.
Условие независимости дисперсии ошибки от номера наблюдения E(et2)=V(et)=s2, t=1,2,3,…,n называется гомоскедастичностью; случай, когда условие гомоскедастичности не выполняется, называется гетероскедастичностью. На рис. 3 приведен пример типичной картины для случая гомоскедастичности ошибок, на рис. 4 – пример данных с гетероскедастичными ошибками.
Рис. 3 Рис. 4
Условие E (etes) = 0, t ¹ s указывает на некоррелированность ошибок для разных наблюдений. Это условие часто нарушается в случае, когда наши данные являются переменными рядами. В случае, когда это условие не выполняется, говорят об автокорреляции остатков.
Для простейшего случая автокорреляции остатков, когда E(et,et+1)=r¹0, типичный вид данных показан на рис. 5 (r> 0) и 6 (r<0).
Рис. 5 Рис. 6
Отметим, что условия 3а, 3б можно также написать в терминах зависимой переменной: Eyt=a+bxt, V(yt)=s2 , Cov(yt, ys)=0, t¹s.
Дата публикования: 2014-11-28; Прочитано: 399 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!