Вид уравнения и предпосылки для регрессионного анализа

Парная линейная регрессия описывается уравнением

Для получения оценки параметров линейной функции регрессии взята выборка, состоящая из векторных переменных (xi, yi).

Оценкой записанной выше модели является уравнение где

Классический подход к оцениванию параметров α и β основан на классическом (обычном или традиционном) методе наименьших квадратов (МНК).

Чтобы регрессионный анализ давал достоверные результаты, необходимо выполнить четыре условия Га­усса–Маркова:

1. M(εi) = 0 – остатки имеют нулевое среднее для всех i = 1,…, n.

2. D(εi) = σ2 = const для всех i = 1,…, n – гомоскедастичность остатков, то есть их равноизменчивость.

– отсутствие автокорреляции в остатках.

4. Объясняющая переменная X детерминирована, а объясняемая переменная Y – случайная величина и остатки не коррелируют с X:

Объясняющая переменная в том случае, когда она стоит в уравнении регрессии, может называться регрессором.

Наряду с этими четырьмя условиями Гаусса–Маркова применяют пятое условие: остатки должны быть распределены нормально; это условие необходимо для обеспе­чения правильного оценивания значимости уравнения регрессии и его параметров.

Наилучшие оценки называют BLUE–оценками (Best Linear Unbiased Estima­tors).

Они обладают следующими свойствами:

1. Это оценки несмещённые:

3. Оценки эффективны, то есть имеют наименьшие дисперсии среди всех воз­можных оценок.

Если нарушаются второе и/или третье условия Гаусса–Маркова, то оценки не теряют свойства 1 и 2, а свойство 3 (эффективность) теряют; дисперсии становятся смещёнными.