Обнаружение и устранение мультиколлинеарности
Для обнаружения парной коллинеарности можно использовать матрицу коэффициентов парной корреляции между факторами:
(3)
Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами : чем ближе к нулю определитель матрицы межфакторной корреляции, тем выше мультиколлинеарность факторов и ненадежнее результаты множественной регрессии.
Для примера рассмотрим модель с тремя объясняющими переменными:
Матрица коэффициентов парной корреляции между факторами имеет вид:
(4)
Если факторы не коррелируют между собой (идеальный случай), то и определитель матрицы , если же между факторами существует полная линейная зависимость (абстракция, идеальный случай), то все коэффициенты корреляции и определитель такой матрицы равен нулю:
При рассмотрении реальных экономических процессов определитель матрицы коэффициентов межфакторной корреляции принимает значения и чем ближе он к нулю, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии.
Прежде чем указать основные методы устранения мультиколлинеарности отметим, что в ряде случаев мультиколлинеарность не является серьезным недостатком, чтобы прилагать усилия для ее устранения. Ответ на это зависит в основном от цели исследования.
Если основная задача модели – прогноз будущих значений зависимой переменной, то при достаточно большом коэффициенте детерминации (>0,9) наличие мультиколлинеарности зачастую не сказывается на прогнозных качествах модели. Хотя это утверждение будет обоснованным лишь в том случае, что и в будущем между коррелированными переменными будут сохраняться те же отношения, что и ранее.
Если же целью исследования является определение степени влияния каждой из объясняющих переменных на зависимую переменную, то наличие мультиколлинеарности, приводящее к увеличению стандартных ошибок, скорее всего, исказит истинные зависмости между переменными. В этой ситуации мультиколлинеарность представляется серьезной проблемой.
Отметим, что единого метода устранения мультиколлинеарности, пригодного в любом случае, не существует. Это связано с тем, что причины и последствия мультиколлинеарности неоднозначны и во многом зависят от результатов выборки.
Методы устранения мультиколлинеарности:
1) простейшим методом устранения мультиколлинеарности является исключение из модели одной или нескольких коррелированных переменных.
2) иногда для уменьшения мультиколлинеарности достаточно увеличить объем выборки.
3) в ряде случаев проблема мультиколлинеарности может быть решена путем изменения спецификации модели: либо изменяется форма модели, либо добавляются объясняющие переменные, не учтенные в первоначальной модели, но существенно влияющие на зависимую переменную. Например, для устранения мультиколлинеарности можно перейти к совмещенным уравнениям регрессии, т.е. к уравнениям, которые не только отражают влияние факторов, но и их взаимодействие. Например, для уравнения с тремя объясняющими переменными можно построить следующую модель:
(5)
Рассматриваемая модель включает в себя взаимодействие первого порядка. Можно включать в модель и взаимодействие более высоких порядков, однако, как правило, взаимодействие третьего и более высокого порядка оказывается статистически незначимым. Не всегда оказывается целесообразным включать в модель все факторы и всех порядков. Если анализ совмещенного уравнения, к примеру, показал значимость только взаимодействия факторов и , то уравнение будет иметь вид:
(6)
Вследствие взаимодействия факторов парные коэффициенты корреляции не могут в полной мере решать вопрос о целесообразности включения в модель того или иного фактора с результатом. Матрица частных коэффициентов корреляции наиболее широко используется в процедуре отсева факторов. Отсев факторов можно проводить и по критерию Стьюдента для коэффициентов регрессии: из уравнения факторы с величиной критерия меньше табличного.