Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Метод наименьших квадратов МНК



Для оценки параметров регрессий, линейных по этим параметрам, используется метод наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака у от теоретических значений ŷ x при тех же значениях фактора x минимальна, т. е.

10. .Метод наименьших квадратов — один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки.

Метод наименьших квадратов применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.

Когда искомая величина может быть измерена непосредственно, как, например, длина отрезка или угол, то, для увеличения точности, измерение производится много раз, и за окончательный результат берут арифметическое среднее из всех отдельных измерений. Это правило арифметической середины основывается на соображениях теории вероятностей; легко показать, что сумма квадратов уклонений отдельных измерений от арифметической середины будет меньше, чем сумма квадратов уклонений отдельных измерений от какой бы то ни было другой величины. Само правило арифметической середины представляет, следовательно, простейший случай метода наименьших квадратов.

Пусть дано решить систему уравнений

a1x + b1y + c1z + … + n1 = 0

a2x + b2y + c2z + … + n2 = 0 (1)

a3x + b3y + c3z + … + n3 = 0

число которых более числа неизвестных x, у, z… Чтобы решить их по способу Н. квадратов, составляют новую систему уравнений, число которых равно числу неизвестных и которые затем решаются по обыкновенным правилам алгебры. Эти новые, или так называемые нормальные, уравнения составляются по следующему правилу: умножают сперва все данные уравнения на коэффициенты у первой неизвестной х и, сложив почленно, получают первое нормальное уравнение, умножают все данные уравнения на коэффициенты у второй неизвестной у и, сложив почленно, получают второе нормальное уравнение и т. д. Если означить для краткости:

[aa] = a1a1 + a2a2 +…

[ab] = a1b1 + a2b2 +…

[ac] = a1c1 + a2c2 +…

[ba] = b1a1 + b2a2 +…

[bb] = b1b1 + b2b2 +…

[bc] = b1c1 + b2c2 +…

то нормальные уравнения представятся в следующем простом виде:

[aa]x + [ab]y + [ac]z + … + [an] = 0

[ba]x + [bb]y + [bc]z + … + [bn] = 0 (2)

[ca]x + [cb]y + [cc]z + … + [cn] = 0


11. Оценка тесноты связи

12. Коэффициент ковариации

Мч(у) - Т.е. получим корреляционную зависимость.

Наличие корреляционной зависимости не может ответить на вопрос о причине связи. Корреляция устанавливает лишь меру этой связи, т.е. меру согласованного варьирования.

Меру взаимосвязи м\у 2 мя переменными можно найти с помощью ковариации.

, ,

Величина показателя ковариации зависит от единиц в γ измеряется переменная. Поэтому для оценки степени согласованного варьирования используют коэффициент корреляции – безразмерную характеристику имеющую определенный пределы варьирования..

13.Показатели корреляции: линейный коэффициент. индекс корреляции. Наиболее распространенный коэффициент корреляции. Предназначен для расчета силы и направления линейной зависимости между переменными исследования.

Смысл коэффициента линейной корреляции.

Коэффициент линейной корреляции отражает меру линейной зависимости между двумя переменными. Предполагается, что переменные измерены в интервальной шкале либо в шкале отношений.Если представить две переменные на координатном поле, то каждая пара значений будет отображать координаты точки в этом поле. Чем ближе точки к усредненной прямой, тем выше коэффициент корреляции Коэффициент корреляции будет положительным числом, когда при повышении X происходит повышение Y (прямопропорциональная связь), отрицательным при обратнопропорциональной связи. На иллюстрации изображены различные по силе положительные коэффициенты корреляции. Индекс корреляции используется для выявления тесноты связи между переменными в случае нелинейной зависимости.

Он показывает тесноту связи между фактором x и зависимой переменной y:. (6.13)

где ei = yi - i - величина ошибки, т.е. отклонение фактических значений зависимой переменной от рассчитанных по уравнению регрессии.

Индекс корреляции есть неотрицательная величина, не превосходящая 1: 0 ≤ Iyx ≤ 1.

Связь тем сильнее, чем ближе Iyx к единице.

В случае линейной зависимости Iyx = | ryx |. Расхождение между Iyx (формула (6.13)) и ryx (формула (6.4)) может быть использовано для проверки линейности корреляционной зависимости.





Дата публикования: 2015-01-26; Прочитано: 538 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.014 с)...