Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | ||
|
E (ee¢) = E (e2e1) E (e )... E (e2en) = 0 s 2 ... 0
E (ene1) E (ene2)... E (e ) 0 0... s 2
Элементы, стоящие на главной диагонали, свидетельствуют о том, что E(ei2) = s 2 для всех i. Это означает, что все ei имеют постоянную дисперсию s2 – свойство, в связи с которым говорят о гомоскедастичности. Элементы, не стоящие на главной диагонали, дают нам E(etet+s) = 0 для s ¹ 0, так что значения ei попарно некоррелированы. Гипотеза (3.в), в силу которой матрица X образована из фиксированных (неслучайных) чисел, означает, что в повторяющихся выборочных наблюдениях единственным источником случайных возмущений вектора Y являются случайные возмущения вектора e, и поэтому свойства наших оценок и критериев обусловлены матрицей наблюдений X. Последнее предположение относительно матрицы X, ранг которой принимается равным k, означает, что число наблюдений превышает число параметров (иначе невозможна оценка этих параметров), и что не существует строгой зависимости между объясняющими переменными. Это соглашение простирается на все переменные X j, включая переменную X 0 , значение которой всегда равно единице, что соответствует первому столбцу матрицы X.
Оценка регрессионной модели с коэффициентами b0, b1,…,bk, которые являются оценками неизвестных параметров b0, b1,…,bk и наблюдаемыми ошибками e, которые являются оценками ненаблюдаемых e, может быть записана в матричной форме следующим образом
(3.4).
При использовании правил матричного сложения и умножения отношения между возможно большими массивами чисел могут быть записаны несколькими символами. Используя правило транспонирования: A¢ = транспонированной A, мы можем представить ряд других результатов. Система нормальных уравнений (для регрессии с любым числом переменных и наблюдений) в матричном формате записывается так:
Х¢Хb = Х¢Y (3.5).
Используя правило получения обратной матрицы: A-1 = инверсия A, мы можем решить систему нормальных уравнений путем перемножения каждой стороны уравнения (3.5) с матрицей (Х¢Х)-1:
(Х¢Х)-1(Х¢Х)b = (Х¢Х)-1X¢Y
Ib = (Х¢Х)-1X¢Y
Где I – матрица идентификации (единичная матрица), являющаяся результатом умножения матрицы на обратную. Поскольку Ib=b, мы получаем решение нормальных уравнений в терминах метода наименьших квадратов для оценки вектора b:
b = (Х¢Х)-1X¢Y (3.6).
Отсюда, для любого числа переменных и значений данных, мы получаем вектор параметров оценки, транспонирование которых есть b0, b1,…,bk,, как результат матричных операций над уравнением (3.6).
Представим теперь и другие результаты. Предсказанное значение Y, которое мы обозначаем как , корреспондирует с наблюдаемыми значениями Y как: (3.7).
Поскольку b = (Х¢Х)-1X¢Y, то мы можем записать подогнанные значения в терминах трансформации наблюдаемых значений:
(3.8).
Обозначив , можем записать .
Все матричные вычисления осуществляются в пакетах программ по регрессионному анализу.
Матрица ковариации коэффициентов оценки b задана как:
, это следует из того, что
Поскольку неизвестно и оценивается МНК, то мы имеем оценку ковариации матрицы b как: (3.9).
Если мы обозначим матрицу С как , то оценка стандартной ошибки каждого bi есть
(3.10),
где Сii – диагональ матрицы.
Дата публикования: 2015-10-09; Прочитано: 248 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!