Занятие 4 и 5. Множественная регрессия и корреляция

 

Множественная регрессия - уравнение связи с несколькими независимыми переменными:

, где у- зависимая переменная (результативный признак);

х1,х2,...,хр - независимые переменные (факторы).

Для построения уравнения множественной регрессии чаще используются следующие функции:
• линейная – ;

• степенная – ;

• экспонента –

• гипербола – у = .

Можно использовать и другие функции, приводимые к линейному виду.

Для оценки параметров уравнения множественной регрессии применяют метод наименьших квадратов (МНК). Для линейных уравнений и нелинейных уравнений, приводимых к линейным, строится следующая система нормальных уравнений, решение которой позволяет получить оценки параметров регрессии:

 

Для ее решения может быть применён метод определителей:

 

…,

где Δ = - определитель системы;

 

Δа, Δb1,…, Δb2 - частные определители, которые получаются путем замены соответствующего столбца матрицы определителя системы данными левой части системы.

 

Другой вид уравнения множественной регрессии - уравнение регрессии в стандартизованном масштабе:

где , - стандартизованные переменные;

βi - стандартизованные коэффициенты регрессии.

 

К уравнению множественной регрессии в стандартизованном масштабе применим МНК. Стандартизованные коэффициенты регрессии (β-коэффициенты) определяются из следующей системы уравнений:

 

Связь коэффициентов множественной регрессии bi- со стандартизованными коэффициентами βi описывается соотношением:

.

Параметр а определяется как а = .

Средние коэффициенты эластичности для линейной регрессии рассчитываются по формуле:

.

Для расчета частных коэффициентов эластичности применяется следующая формула:

.

Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции:

.

Значение индекса множественной корреляции лежит в пределах от 0 до 1 и должно быть больше или равно максимальному парному индексу корреляции:

(i= ).

 

Индекс множественной корреляции для уравнения в стандартизованном масштабе можно записать в виде:

.

 

При линейной зависимости коэффициент множественной корреляции можно определить через матрицу парных коэффициентов корреляции:

, где

- определитель матрицы парных коэффициентов корреляции;

- определитель матрицы межфакторной корреляции.

 

Частные коэффициенты (или индексы) корреляции, измеряющие влияние на у фактора хi при неизменном уровне других факторов, можно определить по формуле:

.

или по рекуррентной формуле:

.

Частные коэффициенты корреляции изменяются в пределах от -1 до 1.

Качество построенной модели в целом оценивает коэффициент (индекс) детерминации. Коэффициент множественной детерминации рассчитывается как квадрат индекса множественной корреляции:

.

Скорректированный индекс множественной детерминации содержит поправку на число степеней свободы и рассчитывается по формуле:

,

где n - число наблюдений;

т- число факторов.

Значимость уравнения множественной регрессии в целом оценивается с помощью F-критерия Фишера:

.

Частный F-критерий оценивает статистическую значимость присутствия каждого из факторов в уравнении. В общем виде для фактора xi частный F-критерий определится как:

.

Оценка значимости коэффициентов чистой регрессии с помощью t-критерия Стьюдента сводится к вычислению значения:

.

где - стандартная коэффициента регрессии bi она может быть определена по следующей формуле:

.

При построении уравнения множественной регрессии может возникнуть проблема мулътиколлинеарности факторов, их тесной линейной связанности.

Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если .

По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мулътиколлинеарности факторов. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов.

Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.

Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей, поскольку все недиагональные элементы были бы равны нулю. Так, для включающего три объясняющих переменных уравнения

матрица коэффициентов корреляции между факторами имела бы определитель, равный 1:

так как и .

Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты корреляции равны 1, то определитель такой матрицы равен 0:

Чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И наоборот, чем ближе к 1 определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.

Проверка мультиколлинеарности факторов может быть проведена методом испытания гипотезы о независимости переменных . Доказано, что величина имеет приближенное распределение с (0,5n*(n-1)) степенями свободы. Если фактическое значение превосходит распределение табличное (критическое) гипотеза отклоняется. Это означает, что Det |R| 1, недиагональные ненулевые коэффициенты корреляции указывают на коллинеарность факторов. Мультиколлинеарность считается доказанной.

Для применения МНК требуется, чтобы дисперсия остатков была гомоскедастичной. Это значит, что для каждого значения фактора хj остатки имеют одинаковую дисперсию. Если это условие не соблюдается, то имеет место гетероскедастичностъ.

При нарушении гомоскедастичности мы имеем неравенства

, j i.

При малом объеме выборки для оценки гетероскедастичности может использоваться метод Гольдфельда - Квандта. Основная идея теста Гольдфельда - Квандта состоит в следующем:

1)упорядочение п наблюдений по мере возрастания переменной х;

2)исключение из рассмотрения С центральных наблюдений; при этом (п-С):2>р,где p - число оцениваемых параметров;

3)разделение совокупности из (п - С) наблюдений на две группы (соответственно с малыми и с большими значениями фактора x) и определение по каждой из групп уравнений регрессии;

4)определение остаточной суммы квадратов для первой (S1) и второй (S2) групп и нахождение их отношения: R = S1: S2.

При выполнении нулевой гипотезы о гомоскедастичности отношение R будет удовлетворять F-критерию со степенями свободы ((п - С - 2р) : 2) для каждой остаточной суммы квадратов. Чем больше величина R превышает табличное значение F-критерия, тем более нарушена предпосылка о равенстве дисперсий остаточных величин.

Уравнения множественной регрессии могут включать в качестве независимых переменных качественные признаки (например, профессия, пол, образование, климатические условия, отдельные регионы и т.д.). Чтобы ввести такие переменные в регрессионную модель, их необходимо упорядочить и присвоить им те или иные значения, т.е. качественные переменные преобразовать в количественные.

return false">ссылка скрыта

Такого вида сконструированные переменные принято в эконометрике называть фиктивными переменными. Например, включать в модель фактор «пол» в виде фиктивной переменной можно в следующем виде:

пол.

Коэффициент регрессии при фиктивной переменной интерпретируется как среднее изменение зависимой переменной при переходе от одной категории (женский пол) к другой (мужской пол) при неизменных значениях остальных параметров. На основе t-критерия Стьюдента делается вывод о значимости влияния фиктивной переменной, существенности расхождения между категориями.