Решение вопроса о спецификации модели

Предпосылки метода наименьших квадратов

Методика проведения анализа на основе построения уравнения многофакторной линейной регрессии

Система показателей тесноты многофакторной связи

Уравнение многофакторной регрессии, его построение и интерпретация

Решение вопроса о спецификации модели

Множественная регрессия – уравнение связи с несколькими независимыми переменными:

Y=f(x1,x2,…,xp), (4.1)

где y - зависимая переменная (результативный признак);

x1,x2,…,xp – независимые переменные (факторы).

Для построения уравнения множественной регрессии чаще используются следующие функции:

линейная - y=a+b1·x1+b2·x2+…+bp·xp+e (4.2)

степенная ‑ y=a·x1b1·x2b2·…·xpbp ·e (4.3)

экспонентная - y=еa+bx1+bx2+…+bp·xp+e (4.4)

гипербола - (4.5)

Можно использовать и другие функции, приводимые к линейному виду.

Основная цель множественной регрессии – построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также их совокупное влияние на моделируемый показатель. Построение модели начинают с решения вопроса о спецификации модели. Во множественной регрессии спецификация модели включает в себя решение двух вопросов:

1. отбор факторов

2. выбор вида уравнения.

Включение в уравнение множественной регрессии того или иного набора факторов связано, прежде всего, с представлением исследователя о природе взаимосвязи моделируемого показателя с другими жизненными явлениями.

Факторы включенные в модель должны отвечать следующим требованиям:

1. должны быть количественно измеримы. Если необходимо включать качественный фактор, то ему необходимо придать количественное определение.

2. не должны быть интеркоррелированны (т.е. факторные признаки не должны находится в тесной зависимости между собой и уж тем более, находится в точной функциональной связи). При включении в модель факторов с высокой интеркорреляцией () для множественной регрессии может привести к нежелательным последствиям, т.е. система норм уравнений может оказаться плохо обусловленной и повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии. Если существует высокая корреляция между факторами, то нельзя установить их изолированное влияние на результативный показатель, и параметры уравнения регрессии окажутся не интерпретируемыми.

3. Факторы множественной регрессии должны объяснять вариацию зависимой переменной. Если строится модель с набором факторов P, то для нее рассчитывается показатель множественной детерминации R2, который фиксирует долю объяснений вариации результативного признака за счет рассмотрения в регрессии P - факторов. Влияние неучтенных факторов оценивается как 1 – R2 с соответствующей остаточной дисперсией.

При дополнительном включении в регрессию (P+1) – го фактора R2 должен возрастать, Docm уменьшаться. Если этого не происходит, и данные показатели мало отличаются друг от друга, то включенный в анализ (P+1) – фактор не улучшает модель и является практически лишним фактором.

Насыщение модели лишними факторами не только не снижает величину остаточной дисперсии, но и приводит к статической незначимости параметров регрессии по t – критерию Стьюдента. Таким образом, хотя теоретически регрессионная модель позволяет учесть любое число факторов, практически – в этом нет необходимости.

Отбор факторов производится на основе качественного теоретико-экономического анализа и проходит в 2 стадии: подбираются факторы, исходя из сущности проблемы, на основе матрицы показателей корреляции определяют t–статистики для параметров регрессии (чтобы исключить из модели коллинеарные факторы).

Поскольку одним из условий построения уравнения множественной регрессии является независимость действия факторов, то коллинеарность факторов нарушает это условие. Коллинеарность может возникать в силу различных причин. Например, несколько независимых переменных могут иметь общий временной тренд, относительно которого они совершают малые колебания.

Коэффициенты интеркорреляции (т.е. корреляции между факторными признаками) позволяют исключить из модели факторы, дублирующие друг друга. Считается, что 2 переменные являются коллинеарными, т.е. находятся между собой в линейной зависимости, если коэффициент

Если факторы явно коллинеарны, то они дублируют друг друга и один из них необходимо исключить из модели.

Правило: предпочтение отдается не фактору, который более тесно связан с результатом, а тому фактору, который при достаточной связи с результатом имеет минимальную тесноту связи с другими факторами.

С целью выявления факта коллинеарности факторов составляется матрица парных коэффициентов корреляции, измеряющих тесноту связи каждого из факторов-признаков с результатом и между собой.

Таблица 4.1. – Матрица парных коэффициентов корреляции

Признак У Х1 Хm
У ryx1 ryxm
Х1 ryx1 rx1xm
Хm ryxm rx1xm

Пример. Изучается зависимость

Построим матрицу парных коэффициентов корреляции

 

Признак y x z v
y      
x 0,9    
z 0,8 0,9  
v 0,7 0,6 0,3

Т.к. , факторы x и z явно коллинеарны, т.е. дублируют друг друга.

В модели оставляем фактор Z, т.к. несмотря на то, что коэффициенты парной корреляции , но зато связь фактора z с другим фактором слабее:

По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. наблюдается совокупность воздействия факторов друг на друга. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой и нельзя оценивать влияние каждого фактора в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка параметров с помощью МНК.

Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:

1. затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов «в чистом» виде, т.к. факторы коррелированны. Параметры линейной регрессии теряют экономический смысл.

2. оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняют с изменением объема наблюдений не только по величине, но и по знаку, что делает модель непригодной для анализа и прогнозирования.

Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И наоборот, чем ближе к 1 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов. Сравнивая между собой коэффициенты множественной детерминации факторов можно выделить переменные, ответственные за мультиколлинеарность, а следовательно, решать проблему отбора факторов, оставляя в модели факторы и минимальной величиной коэффициента множественной детерминации.