Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Тест Грегори Чоу



В том случае, когда фиктивная переменная действует на коэффициент при объясняющей переменной, линия модели отличается от той, которая была до уровня х0, что соответствует разбиению выборочных данных на две части (группы) и рассмотрению отдельных уравнений регрессии по каждой выборке (подвыборке).

В практических исследованиях достаточно часто возникает вопрос, имеет ли смысл разбивать выборку на части и строить так называемою кусочно-линейную модель с фиктивными переменными или ограничиться «обыкновенной» общей регрессией для всего диапазона точек наблюдений?

Для ответа на этот вопрос обычно используется тест (критерий) Грегори Чоу [1,28], суть которого заключается в следующем. Пусть общая выборка имеет объем n Через S0 обозначим сумму квадратов отклонений выборочных данных от их модельных оценок, полученных по общему уравнению регрессии. Разобьем выборку на две подвыборки объемами n1 и n2 соответственно (n1 + n2 = n). Будем считать, что для каждой подвыборки можно построить уравнения регрессии одного вида, но с разными коэффициентами b. Через и обозначим соответствующие суммы квадратов отклонений. Далее рассмотрим некоторые соотношения.

Очевидно, что равенство S0 = S1 + S2 выполняется лишь при совпадении коэффициентов регрессии для всех трех уравнений. Тогда отклонение S0 - (S1 + S2) может быть использовано как показатель улучшения качества модели при разбиении интервала наблюдений на две подвыброки, так как чем сильнее различие в поведении Y для каждой из подвыборок, тем больше значение S0 будет превосходить сумму S1 + S2. Следовательно, отношение [S0 - (S1 + S2)]/(m + 1) будет определять оценку уменьшения дисперсии регрессии за счет построения двух уравнений вместо одного.

При разбиении общей выборки число степеней свободы сократится на (m + 1), т. к. теперь вместо (m + 1) параметра объединенной регрессионной модели необходимо оценивать (2m + 2) коэффициента двух регрессий. В данном случае соотношение (S1 + S2)/(n - 2m - 2) выражает необъясненную дисперсию зависимой переменной при рассмотрении двух регрессий.

Приведенные выше рассуждения позволяют сделать вывод о том, что общую выборку целесообразно разбивать на два интервала только в том случае, если соответствующее уменьшение дисперсии будет значимо больше оставшейся необъясненной дисперсии. Этот вывод может быть основан на стандартной процедуре сравнения дисперсий на основе F-статис­тики, наблюдаемое значение которой для данного анализа имеет вид:

где m - число количественных объясняющих переменных в уравнениях регрессии (m - одинаково для всех трех уравнений модели).

Если Fнабл < Fкр при заданном уровне значимости a и соответствующих числах степеней свободы v1 = m + 1 и v2 = n - 2m - 2, то можно считать, что различие между S0 и S1 + S2 статистически незначимо и нет смысла разбивать уравнение модели на части путем введения фиктивных переменных. Следует заметить, что фактически мы тестируем гипотезу Н0 о равенстве коэффициентов b уравнений регрессии, построенных по каждой подвыборке. Если нулевая гипотеза Н0 верна, то две регрессионные модели можно объединить в одну, построенную по выборке объема n = n1 + n2.

32. Примеры использования фиктивных переменных.

Однако возможен и другой, более информативный подход, позволяющий оценивать влияние значений количественных факторов-аргументов и уровней качественных признаков с помощью одного уравнения регрессионной модели. Этот подход связан с введением в модель специальной переменной, которая отражает два противоположных состояния качественного фактора и носит название фиктивной (искусственной, манекенной) переменной.

Например, D = 0, если сотрудник фирмы не имеет высшего образования; D = 1, если сотрудник имеет высшее образование; D = 0, если в обществе имеются инфляционные ожидания; D = 1 если инфляционных ожиданий нет.

Фиктивная переменная (D) может выражаться в двоичной форме, например:

.

Введение фиктивных переменных позволяет рассматривать в регрессионном анализе, кроме моделей, содержащих количественные объясняющие переменные Хj, модели, включающие лишь качественные факторы Dj, либо те и другие одновременно.

33. Каким образом выявляется наличие автокорреляции в остатках?

Алгоритм выявления автокорреляции остатков на основе критерия Дарбина–Уотсона следующий. Выдвигается гипотеза Н0 об отсутствии автокорреляции остатков. Альтернативные гипотезы Н1 и Н1* состоят, соответственно, в наличии положительной или отрицательной автокорреляции в остатках. Далее по таблице (приложение А) определяются критические значения критерия Дарбина–Уотсона dL и dU для заданного числа наблюдений n, числа независимых переменных модели k и уровня значимости a. По этим значениям числовой промежуток [0;4] разбивают на пять отрезков. Принятие или отклонение каждой из гипотез с вероятностью (1–a) рассматривается на рис. 4.1.

Рис. 4.1. Механизм проверки гипотезы о наличии автокорреляции остатков

Н0 – в остатках нет автокорреляции;

Н1 – в остатках есть положительная автокорреляция;

Н1* – в остатках есть отрицательная автокорреляция.

Если фактическое значение критерия Дарбина – Уотсона попадает в зону неопределенности, то на практике предполагают существование автокорреляции остатков и отклоняют гипотезу H0.

34. Способы устранения автокорреляции в остатках.

В связи с тем, что наличие в модели регрессии автокорреляции между остатками модели может привести к негативным результатам всего процесса оценивания неизвестных коэффициентов модели, автокорреляция остатков должна быть устранена.

Устранить автокорреляцию остатков модели регрессии можно с помощью включения в модель автокорреляционного параметра, однако на практике данный подход реализовать весьма затруднительно, потому что оценка коэффициента автокорреляции является величиной заранее неизвестной.

Авторегрессионной схемой первого порядка называется метод устранения автокорреляции первого порядка между соседними членами остаточного ряда в линейных моделях регрессии либо моделях регрессии, которые можно привести к линейному виду.

На практике применение авторегрессионной схемы первого порядка требует априорного знания величины коэффициента автокорреляции. Однако в связи с тем, что величина данного коэффициента заранее неизвестна, в качестве его оценки рассчитывается выборочный коэффициент остатков первого порядка.

Выборочный коэффициент остатков первого порядка рассчитывается по формуле:

В общем случае коэффициент автокорреляции порядка l рассчитывается по формуле:

где l – временной лаг;

T – число наблюдений;

t – момент времени, в который осуществлялось наблюдение;

– среднее значение исходного временного ряда.

Предположим, что на основе собранных наблюдений была построена линейная парная модель регрессии:

yt=

Рассмотрим применение авторегрессионной схемы первого порядка на примере данной модели.

Исходная линейная модель парной регрессии с учётом процесса автокорреляции остатков первого порядка в момент времени t может быть представлена в виде:

yt=.

где – коэффициент автокорреляции, |<1;

– независимые, одинаково распределённые случайные величины с нулевым математическим ожиданием и дисперсией G2(

Модель регрессии в момент времени (t-1) может быть представлена виде:

yt-1=

Если модель регрессии в момент времени (t-1) умножить на величину коэффициента автокорреляции и вычесть её из исходной модели регрессии в момент времени t, то в результате мы получим преобразованную модель регрессии, учитывающую процесс автокорреляции первого порядка:

Для более наглядного представления преобразованной модели воспользуемся методом замен:

Yt=yt

Xt=xt

Zt=1.

В результате преобразованная модель регрессии примет вид:

Yt= Zt*

ли устранённой.

Авторегрессионную схему первого порядка можно применить ко всем строкам матрицы данных Х, кроме первого наблюдения. Однако если не вычислять Y1 и X1, то подобная потеря в небольшой выборке может привести к неэффективности оценок коэффициентов преобразованной модели регрессии. Данная проблема решается с помощью поправки Прайса-Уинстена. Введём следующие обозначения:

Тогда оценки неизвестных коэффициентов преобразованной модели регрессии (4) можно рассчитать с помощью классического метода наименьших квадратов:

Оценки коэффициентов исходной модели регрессии (1) определяются по формулам:

В результате оцененная модель регрессии будет иметь вид:

35. Что такое гетероскедастичность? Причины и последствия гетероскедастичности.(гл 5)

на практике нередко возникают экономические ситуации, когда данное условие является неприемлемым. Например, при исследовании зависимости потребления от дохода вполне реалистично считать, что с ростом дохода растет среднее значение потребления. Кроме того, следует ожидать, что разброс в потреблении будет более существенным для субъектов с большим уровнем дохода, так как люди с большим доходом имеют больший простор для его распределения. Это означает, что дисперсия потребления не остается постоянной, а изменяется (увеличивается) с ростом дохода. Приведенный пример характеризует ситуацию, когда дисперсии зависимых величин, а, следовательно, и случайных отклонений не постоянны. Это явление в эконометрике называется гетероскедастичностью (в отличие от гомоскедастичности – постоянства дисперсии отклонений).

В целом, прежде чем сделать вывод о возможности практического использования построенной регрессионной модели, необходимо установить наличие или отсутствие гетероскедастичности в каждом конкретном случае. При обнаружении гетероскедастичности далее решается задача по устранению или уменьшению влияния этого нежелательного эффекта.

Причины.

Второе условие Гаусса–Маркова о гомоскедастичности, то есть равноизменчивости остатков – это одно из важнейших предпосылок МНК.

Эти квадраты остатков входят в ESS (которая минимизируется в МНК) с одинаковыми единичными весами, а это не всегда правомерно, так как на практике гетероскедастичность не так уж редко встречается.

Точка на диаграмме рассеяния, полученная из наблюдения с меньшей дисперсией, более точно определяет направление линии регрессии, чем точка из наблюдения с большей дисперсией.

Последствия гетероскедастичности таковы:

1. Оценки параметров не будут эффективными, то есть не будут иметь наименьшую дисперсию по сравнению с другими оценками; при этом они будут оставаться несмещенными.

2. Дисперсии оценок будут смещены, так как будет смещена дисперсия на одну степень свободы которая используется при вычислении оценок дисперсий всех коэффициентов.

3. Выводы, получаемые на основе завышенных F- и t-статистик, и интервальные оценки будут ненадёжны.

36. Тесты на определение наличия гетероскедастичности.

Тест Голдфелда –Квандта

Все наблюдения выстраиваются в порядке возрастания факторов, c средних наблюдений отбрасываются

Для каждой части, оставшейся после отбрасывания строится та же модель регрессии такого же типа, что и исходная. Для каждой половинки вычисляется сумма квадратов остатков

Если F больше F k1,k2,альфа k= , то предположение о гомоскедастичности остатков отвергается и это плохо.

Тест Спирмена

Наличие гетероскедастичности в остатках регрессии можно проверить и с помощью ранговой корреляции Спирмэна. Суть проверки заключается в том, что в случае гетероскедастичности абсолютные остатки ei коррелированны со значениями фактора xi. Эту корреляцию можно измерять с помощью коэффициента ранговой корреляции Спирмэна (1.10):

где d – абсолютная разность между рангами значений xi и ½ ei ½.

Статистическую значимость r можно оценить с помощью t -критерия:

.

Принято считать, что если tr > ta, то корреляция между ei и xi статистически значима, т.е. имеет место гетероскедастичность остатков. В противном случае принимается гипотеза об отсутствии гетероскедастичности остатков.

37. Метод взвешенных наименьших квадратов.

В некоторых случаях при проведении регрессионного анализа желательно использовать различные веса наблюдений и вычислить оценки коэффициентов регрессии по методу взвешенных наименьших квадратов.

Этот метод обычно применяется, когда дисперсия остатков неоднородна при различных значениях независимых переменных.

Можно использовать веса, равные единица на дисперсию остатков и вычислить оценки по методу взвешенных наименьших квадратов.

(На практике эти дисперсии обычно не известны, однако они часто пропорциональны значениям независимых переменных, и это пропорциональность может быть использована для вычисления подходящих весов наблюдений.)

Рассчитанные значения параметров математической модели являются случайными величинами, имеющими распределение Стьюдента с числом степеней свободы равным, как и для дисперсии зависимой переменной, f = N ∙(m -1).

Дисперсии параметров математической модели могут быть найдены как диагональные элементы матрицы дисперсий-ковариаций , умноженной на дисперсию зависимой величины:

Недиагональные элементы этой матрицы - ковариации – есть количественная мера взаимной зависимости определяемых коэффициентов регрессии. Для линейно-независимых параметров ковариации равны нулю.

Для рассмотренной нами в качестве примера линейной зависимости дисперсии параметров принимают вид:

,

число степеней свободы совпадает с числом степеней свободы дисперсии зависимой переменной.

Интервальная оценка параметров модели может быть получена умножением среднеквадратичного отклонения параметра на коэффициент Стьюдента для выбранной доверительной вероятности:

, u = 0, 1, …, l

Сравнивая рассчитанный доверительный интервал по модулю со значением самого параметра можно проверить гипотезу значимости коэффициента регрессии. Если доверительный интервал окажется по модулю больше значения параметра, то нельзя статистически надежно утверждать, что данный параметр значимо отличается от нуля. Данный параметр (и соответствующее ему слагаемое) можно исключить из модели.

Последней стадией статистической обработки рассчитанного уравнения регрессии является проверка адекватности полученного уравнения экспериментальным данным. Для этого по критерию Фишера сравниваются дисперсия воспроизводимости зависимой переменной s2(y) и дисперсия адекватности, рассчитываемая как частное остаточной суммы квадратов

и числа степеней свободы fR = N – l, где N – число экспериментальных точек определения зависимой переменной, а l – количество значимых коэффициентов регрессии.

Если для выбранного уровня значимости дисперсии одинаковы, то регрессионное уравнение адекватно описывает экспериментальные данные.





Дата публикования: 2015-02-03; Прочитано: 2166 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.013 с)...