РЕГРЕССИИ ЛИНЕЙНОЙ КОЭФФИЦИЕНТЫ
(лат. regressio отступление,
отход) — численные коэффициенты при независимых переменных, определяющие в
модели регрессионного анализа величину изменения зависимой переменной у
при приращении на единицу значений независимых переменных. В простейшем случае,
когда предполагается, что между двумя переменными у и х
существует линейная связь у = а + bх величина эмпирического коэффициента регресии ,определяемая
по набору пар значений (хi,
yi) по
формуле
—
средние арифметические значений переменных х и у и суммирование
производится по всем значениям выборки, служит оценкой теоретической величины b.
Значение численно
равно тангенсу угла наклона прямой линии, проходящей через точку с координатами
(х, у) и выбранной так, чтобы сумма квадратов отклонений всех
эмпирических значений уi от теоретических, предсказанных
уравнением регрессии для данных хi была наименьшей (см. Наименьших квадратов метод). Величина свободного члена уравнения регресии
и геометрически выражается длиной
отрезка, отсекаемого прямой регрессии у на х по оси OY.
Если величина х сама принимает
случайные значения и неясно, какая из величин — х или у — является
зависимой переменной, то по аналогичным формулам можно найти уравнение
регрессии х на у с коэффициентом
.
Эти значения могут быть
выражены через величину коэффициента линейной корреляции r формулами
где: sx — величина среднего квадратического
отклонения;
.
Если х и у подчиняются закону
нормального распределения, то величина by/x будет считаться значимо отличной от 0
при уровне значимости α, если абсолютная величина by/x превысит
критическое
значение критерия Стъюдента для α% уровня значимости и п — 2
степеней свободы.