Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

E(e ) E(e1e2) ... E(e1en) s2 0 ... 0



E (ee¢) = E (e2e1) E (e )... E (e2en) = 0 s 2 ... 0

E (ene1) E (ene2)... E (e ) 0 0... s 2

Элементы, стоящие на главной диагонали, свидетельствуют о том, что E(ei2) = s 2 для всех i. Это означает, что все ei имеют постоянную дисперсию s2 свойство, в связи с которым говорят о гомоскедастичности. Элементы, не стоящие на главной диагонали, дают нам E(etet+s) = 0 для s ¹ 0, так что значения ei попарно некоррелированы. Гипотеза (3.в), в силу которой матрица X образована из фиксированных (неслучайных) чисел, означает, что в повторяющихся выборочных наблюдениях единственным источником случайных возмущений вектора Y являются случайные возмущения вектора e, и поэтому свойства наших оценок и критериев обусловлены матрицей наблюдений X. Последнее предположение относительно матрицы X, ранг которой принимается равным k, означает, что число наблюдений превышает число параметров (иначе невозможна оценка этих параметров), и что не существует строгой зависимости между объясняющими переменными. Это соглашение простирается на все переменные X j, включая переменную X 0 , значение которой всегда равно единице, что соответствует первому столбцу матрицы X.

Оценка регрессионной модели с коэффициентами b0, b1,…,bk, которые являются оценками неизвестных параметров b0, b1,…,bk и наблюдаемыми ошибками e, которые являются оценками ненаблюдаемых e, может быть записана в матричной форме следующим образом

(3.4).

При использовании правил матричного сложения и умножения отношения между возможно большими массивами чисел могут быть записаны несколькими символами. Используя правило транспонирования: = транспонированной A, мы можем представить ряд других результатов. Система нормальных уравнений (для регрессии с любым числом переменных и наблюдений) в матричном формате записывается так:

Х¢Хb = Х¢Y (3.5).

Используя правило получения обратной матрицы: A-1 = инверсия A, мы можем решить систему нормальных уравнений путем перемножения каждой стороны уравнения (3.5) с матрицей (Х¢Х)-1:

(Х¢Х)-1(Х¢Х)b = (Х¢Х)-1X¢Y

Ib = (Х¢Х)-1X¢Y

Где I – матрица идентификации (единичная матрица), являющаяся результатом умножения матрицы на обратную. Поскольку Ib=b, мы получаем решение нормальных уравнений в терминах метода наименьших квадратов для оценки вектора b:

b = (Х¢Х)-1X¢Y (3.6).

Отсюда, для любого числа переменных и значений данных, мы получаем вектор параметров оценки, транспонирование которых есть b0, b1,…,bk,, как результат матричных операций над уравнением (3.6).

Представим теперь и другие результаты. Предсказанное значение Y, которое мы обозначаем как , корреспондирует с наблюдаемыми значениями Y как: (3.7).

Поскольку b = (Х¢Х)-1X¢Y, то мы можем записать подогнанные значения в терминах трансформации наблюдаемых значений:

(3.8).

Обозначив , можем записать .

Все матричные вычисления осуществляются в пакетах программ по регрессионному анализу.

Матрица ковариации коэффициентов оценки b задана как:

, это следует из того, что

Поскольку неизвестно и оценивается МНК, то мы имеем оценку ковариации матрицы b как: (3.9).

Если мы обозначим матрицу С как , то оценка стандартной ошибки каждого bi есть

(3.10),

где Сii – диагональ матрицы.





Дата публикования: 2015-10-09; Прочитано: 248 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.006 с)...